절대 초보자를위한 5 개의 재미있는 헝겊 프로젝트


저자의 이미지 | 캔버
우리는 모두 LLMS (Large Language Models)의 주요 단점으로 지적 된 두 가지 주요 문제를 알고 있습니다.
- 환각
- 지식 컷오프 이외의 업데이트 된 정보 부족
이 두 가지 문제는 LLM 출력의 신뢰성에 대해 심각한 의문을 제기했으며, 이곳에서 RAG (Restrieved-Augmented Generation)가이를 해결하는 강력한 방법으로 등장하여보다 정확한 상황 인식 응답을 제공합니다. 요즘에는 다양한 산업에서 널리 사용되고 있습니다. 그러나 많은 초보자는 하나의 간단한 아키텍처, 즉 텍스트 문서에 대한 기본 벡터 검색을 탐색합니다. 물론 이것은 대부분의 기본 요구에 효과가 있지만 창의성과 이해를 제한합니다.
이 기사는 다른 접근법을 취합니다. 하나의 헝겊 응용 프로그램의 세부 사항을 설명하기 위해 단일 좁은 설정으로 깊은 다이빙 대신 (고급 프롬프트, 청킹, 임베딩 및 검색과 마찬가지로) 초보자는 먼저 광범위한 걸레 패턴을 탐색함으로써 더 많은 혜택을받습니다. 이런 식으로, 래그 개념이 실제로 얼마나 적응할 수 있고 다재다능한 지 볼 수 있으며 자신만의 고유 한 프로젝트를 만들도록 영감을 얻을 수 있습니다. 그래서, 내가 준비한 5 가지 재미 있고 매력적인 프로젝트를 살펴 보겠습니다. 시작합시다!
틀 1. 오픈 소스 모델을 사용하여 래그 애플리케이션 구축
링크:
간단한 걸레 시스템을 구축하여 기본부터 시작하십시오. 이 초보자 친화적 인 프로젝트 llama2 유료 API없이. 당신은 달릴 것입니다 llama2 로컬로 올라마PDF를로드 및 분할 PyPDF
~에서 랭케인임베딩을 만들고 마련된 벡터 매장에 보관하십시오. Docaray. 그런 다음 검색 체인을 설정합니다 랭케인 관련 덩어리를 가져 와서 답을 생성합니다. 그 과정에서 로컬 모델과의 작업, 검색 파이프 라인 구축 및 테스트 출력의 기본 사항을 배울 수 있습니다. 최종 결과는 “코스 비용은 얼마입니까?”와 같은 PDF 특정 질문에 대답 할 수있는 간단한 Q & A 봇입니다. 정확한 맥락으로.
틀 2. 멀티 모달 래그 : 이미지 및 테이블이 포함 된 PDF와 채팅
링크:
이전 프로젝트에서는 텍스트 기반 데이터 만 작업했습니다. 이제 레벨을 올릴 시간입니다. 멀티 모달 래그는 전통적인 시스템을 확장하여 PDF에서 이미지, 테이블 및 텍스트를 처리합니다. 이 튜토리얼에서 Alejandro AO는 다음과 같은 도구를 사용하여 안내합니다. 랭케인 그리고 구조화되지 않은 혼합 된 컨텐츠를 처리하고 멀티 모달 LLM (예 : 시력이있는 GPT-4)에 공급하는 라이브러리. 텍스트, 이미지 및 테이블을 추출하고 포함시키는 방법을 배우고 통합 프롬프트에 결합하고 모든 형식의 컨텍스트를 이해하는 답변을 생성합니다. 임베딩은 벡터 데이터베이스에 저장되고 랭케인 검색 체인은 모든 것을 연결하여 “5 페이지의 차트 설명”과 같은 질문을 할 수 있습니다.
틀 3. Objectbox와 Langchain으로 기기 래그를 만드는 것
링크:
이제 완전히 로컬로 가자. 이 프로젝트는 전적으로 장치에서 실행되는 헝겊 시스템 (클라우드 없음, 인터넷 없음)을 구축합니다. 이 튜토리얼에서는 경량, 초대형을 사용하여 데이터 및 임베딩을 저장하는 방법을 배웁니다. 객체 박스 벡터 데이터베이스. 당신은 사용할 것입니다 랭케인 검색 및 생성 파이프 라인을 구축하려면 모델이 컴퓨터의 문서의 질문에 직접 답변 할 수 있습니다. 이는 개인 정보 보호, 데이터 제어 또는 API 비용을 피하려는 사람에게 적합합니다. 결국, 장치에 거주하는 AI Q & A 시스템이있어 빠르고 안전하게 응답합니다.
틀 4. Neo4J 및 Langchain으로 실시간 헝겊 파이프 라인 구축
링크:
이 프로젝트에서는 일반 문서에서 강력한 그래프로 이동합니다. 이 튜토리얼은 지식 그래프 백엔드를 사용하여 실시간 래그 시스템을 구축하는 방법을 보여줍니다. 당신은 노트북 (Colab과 같은)에서 일할 것입니다. neo4j 클라우드 인스턴스 및 데이터를 나타 내기 위해 노드 및 모서리를 만듭니다. 그런 다음 사용합니다 랭케인생성 및 검색을 위해 그래프를 LLM에 연결하면 상황에 맞는 관계를 쿼리하고 결과를 시각화 할 수 있습니다. 그래프 논리를 배우는 좋은 방법입니다. Cypher
쿼리 및 스마트 AI 답변으로 구조화 된 그래프 지식을 병합하는 방법. 또한이 주제에 대한 심층적 인 가이드를 작성하여 그래프 래그 시스템을 작성하는 단계별 접근 방식을 작성했습니다. 기사 기반 튜토리얼을 선호하는 경우도 확인하십시오.
틀 5. Llama-Index를 사용하여 에이전트 헝겊 구현
링크:
초기 프로젝트에서 우리는 검색과 세대에 중점을 두었지만 여기서 목표는 추론 루프와 도구를 제공하여 여러 단계로 문제를 해결할 수 있도록 래그 “에이전트”를 만드는 것입니다. 크람 파 왕자 의이 재생 목록은 4 단계로 나뉩니다.
- 라우터 쿼리 엔진 : 구성 llama-index 벡터 인덱스와 같은 요약 색인과 같은 질문에 대한 질문을 올바른 소스로 라우팅하려면
- 기능 호출 : 걸레가 라이브 데이터를 가져 오거나 즉시 작업을 수행 할 수 있도록 계산기 또는 API와 같은 도구 추가
- 다단계 추론 : 복잡한 쿼리를 작은 하위 작업으로 분류합니다 ( “먼저 요약 한 다음 분석”)
- 여러 문서를 통해 : 하위 쿼리를 처리하는 에이전트를 사용하여 여러 문서에서 한 번에 추론을 확장하십시오.
기본 요원으로 시작하고 점차 더 강력한 기능을 사용하는 실습 여행입니다. llama-index 및 오픈 소스 LLM. 결국, 당신은 답을 가져 오는 것뿐만 아니라 실제로 여러 PDF에 걸쳐 문제를 단계별로 생각하는 헝겊 시스템을 가질 것입니다. 시리즈에 액세스 할 수도 있습니다 중간 더 쉽게 참조 할 수 있도록 기사의 형태로.
틀 마무리
그리고 당신은 그것을 가지고 있습니다 : 5 개의 초보자 친화적 인 헝겊 프로젝트는 일반적인 “벡터 검색 텍스트”설정을 넘어서고 있습니다. 내 조언? 첫 번째 시도에서 완벽을 목표로하지 마십시오. 하나의 프로젝트를 선택하고 따라 가서 실험 해 보도록하십시오. 더 많은 패턴을 탐색할수록 자신의 커스텀 래그 응용 프로그램에 대한 아이디어를 혼합하고 일치시키는 것이 더 쉬워집니다. “검색”을 멈추고 AI가 어떻게 더 똑똑한 방식으로 추론, 적응 및 상호 작용할 수 있는지에 대한 “생각”을 시작할 때 실제 재미가 시작됩니다.
Kanwal Mehreen 기계 학습 엔지니어이자 데이터 과학에 대한 열정과 AI의 의학 교차점을 가진 기술 작가입니다. 그녀는 eBook “Chatgpt의 생산성을 극대화하는 것”을 공동 저술했습니다. APAC의 Google Generation Scholar 2022로서 그녀는 다양성과 학업 우수성을 챔피언시킵니다. 그녀는 또한 Tech Scholar, Mitacs Globalink Research Scholar 및 Harvard Wecode Scholar의 Teradata 다양성으로 인정 받고 있습니다. Kanwal은 STEM 분야의 여성에게 힘을 실어주기 위해 펨코드를 설립 한 변화에 대한 열렬한 옹호자입니다.
Post Comment