Loading...
    • 개발자 가이드
    • API 레퍼런스
    • MCP
    • 리소스
    • 릴리스 노트
    Search...
    ⌘K
    시작하기
    Claude 소개빠른 시작
    모델 및 가격
    모델 개요모델 선택Claude 4.6의 새로운 기능마이그레이션 가이드모델 지원 중단가격
    Claude로 구축하기
    기능 개요Messages API 사용중지 사유 처리프롬프트 모범 사례
    컨텍스트 관리
    컨텍스트 윈도우압축컨텍스트 편집
    기능
    프롬프트 캐싱확장 사고적응형 사고노력 수준메시지 스트리밍배치 처리인용다국어 지원토큰 카운팅임베딩비전PDF 지원Files API검색 결과구조화된 출력
    도구
    개요도구 사용 구현 방법세분화된 도구 스트리밍Bash 도구코드 실행 도구프로그래밍 방식 도구 호출컴퓨터 사용 도구텍스트 편집기 도구웹 페치 도구웹 검색 도구메모리 도구도구 검색 도구
    Agent Skills
    개요빠른 시작모범 사례엔터프라이즈용 SkillsAPI로 Skills 사용
    Agent SDK
    개요빠른 시작TypeScript SDKTypeScript V2 (미리보기)Python SDK마이그레이션 가이드
    API에서 MCP
    MCP 커넥터원격 MCP 서버
    서드파티 플랫폼의 Claude
    Amazon BedrockMicrosoft FoundryVertex AI
    프롬프트 엔지니어링
    개요프롬프트 생성기프롬프트 템플릿 사용프롬프트 개선기명확하고 직접적으로 작성예시 사용 (멀티샷 프롬프팅)Claude에게 생각하게 하기 (CoT)XML 태그 사용Claude에게 역할 부여 (시스템 프롬프트)복잡한 프롬프트 연결긴 컨텍스트 팁확장 사고 팁
    테스트 및 평가
    성공 기준 정의테스트 케이스 개발평가 도구 사용지연 시간 줄이기
    가드레일 강화
    환각 줄이기출력 일관성 높이기탈옥 방지스트리밍 거부프롬프트 유출 줄이기Claude 캐릭터 유지
    관리 및 모니터링
    Admin API 개요데이터 상주워크스페이스사용량 및 비용 APIClaude Code Analytics API제로 데이터 보존
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    기능

    임베딩

    텍스트 임베딩은 의미적 유사성을 측정할 수 있게 해주는 텍스트의 수치적 표현입니다. 이 가이드에서는 임베딩, 그 응용 분야, 그리고 검색, 추천, 이상 탐지와 같은 작업에 임베딩 모델을 사용하는 방법을 소개합니다.

    임베딩 구현 전 고려사항

    임베딩 제공업체를 선택할 때, 필요와 선호도에 따라 고려할 수 있는 여러 요소가 있습니다:

    • 데이터셋 크기 및 도메인 특수성: 모델 학습 데이터셋의 크기와 임베딩하려는 도메인과의 관련성. 더 크거나 도메인에 특화된 데이터는 일반적으로 더 나은 도메인 내 임베딩을 생성합니다
    • 추론 성능: 임베딩 조회 속도와 엔드투엔드 지연 시간. 이는 대규모 프로덕션 배포에서 특히 중요한 고려사항입니다
    • 커스터마이징: 비공개 데이터에 대한 지속적 학습 또는 매우 특정한 도메인에 대한 모델 특화 옵션. 이를 통해 고유한 어휘에 대한 성능을 향상시킬 수 있습니다

    Anthropic에서 임베딩을 얻는 방법

    Anthropic은 자체 임베딩 모델을 제공하지 않습니다. 위의 모든 고려사항을 포괄하는 다양한 옵션과 기능을 갖춘 임베딩 제공업체 중 하나는 Voyage AI입니다.

    Voyage AI는 최첨단 임베딩 모델을 만들며, 금융 및 의료와 같은 특정 산업 도메인을 위한 맞춤형 모델이나 개별 고객을 위한 맞춤 파인튜닝 모델을 제공합니다.

    이 가이드의 나머지 부분은 Voyage AI에 대한 것이지만, 특정 사용 사례에 가장 적합한 것을 찾기 위해 다양한 임베딩 벤더를 평가하시기를 권장합니다.

    사용 가능한 모델

    Voyage는 다음 텍스트 임베딩 모델 사용을 권장합니다:

    모델컨텍스트 길이임베딩 차원설명
    voyage-3-large32,0001024 (기본값), 256, 512, 2048최고의 범용 및 다국어 검색 품질. 자세한 내용은 블로그 포스트를 참조하세요.
    voyage-3.532,0001024 (기본값), 256, 512, 2048범용 및 다국어 검색 품질에 최적화. 자세한 내용은 블로그 포스트를 참조하세요.
    voyage-3.5-lite32,0001024 (기본값), 256, 512, 2048지연 시간 및 비용에 최적화. 자세한 내용은 블로그 포스트를 참조하세요.
    voyage-code-332,0001024 (기본값), 256, 512, 2048코드 검색에 최적화. 자세한 내용은 블로그 포스트를 참조하세요.
    voyage-finance-232,0001024금융 검색 및 RAG에 최적화. 자세한 내용은 블로그 포스트를 참조하세요.
    voyage-law-216,0001024법률 및 긴 컨텍스트 검색과 RAG에 최적화. 모든 도메인에서 성능이 향상되었습니다. 자세한 내용은 블로그 포스트를 참조하세요.

    추가로, 다음 멀티모달 임베딩 모델이 권장됩니다:

    모델컨텍스트 길이임베딩 차원설명
    voyage-multimodal-3320001024PDF 스크린샷, 슬라이드, 표, 그림 등과 같은 텍스트와 콘텐츠가 풍부한 이미지를 인터리빙하여 벡터화할 수 있는 풍부한 멀티모달 임베딩 모델. 자세한 내용은 블로그 포스트를 참조하세요.

    어떤 텍스트 임베딩 모델을 사용할지 결정하는 데 도움이 필요하신가요? FAQ를 확인하세요.

    Voyage AI 시작하기

    Voyage 임베딩에 접근하려면:

    1. Voyage AI 웹사이트에 가입하세요
    2. API 키를 발급받으세요
    3. 편의를 위해 API 키를 환경 변수로 설정하세요:
    export VOYAGE_API_KEY="<your secret key>"

    아래에 설명된 대로 공식 voyageai Python 패키지 또는 HTTP 요청을 사용하여 임베딩을 얻을 수 있습니다.

    Voyage Python 라이브러리

    voyageai 패키지는 다음 명령어로 설치할 수 있습니다:

    pip install -U voyageai

    그런 다음, 클라이언트 객체를 생성하고 텍스트 임베딩을 시작할 수 있습니다:

    import voyageai
    
    vo = voyageai.Client()
    # This will automatically use the environment variable VOYAGE_API_KEY.
    # Alternatively, you can use vo = voyageai.Client(api_key="<your secret key>")
    
    texts = ["Sample text 1", "Sample text 2"]
    
    result = vo.embed(texts, model="voyage-3.5", input_type="document")
    print(result.embeddings[0])
    print(result.embeddings[1])

    result.embeddings는 각각 1024개의 부동소수점 숫자를 포함하는 두 개의 임베딩 벡터 리스트가 됩니다. 위 코드를 실행하면 두 임베딩이 화면에 출력됩니다:

    [-0.013131560757756233, 0.019828535616397858, ...]   # embedding for "Sample text 1"
    [-0.0069352793507277966, 0.020878976210951805, ...]  # embedding for "Sample text 2"

    임베딩을 생성할 때, embed() 함수에 몇 가지 다른 인수를 지정할 수 있습니다.

    Voyage Python 패키지에 대한 자세한 정보는 Voyage 문서를 참조하세요.

    Voyage HTTP API

    Voyage HTTP API를 요청하여 임베딩을 얻을 수도 있습니다. 예를 들어, 터미널에서 curl 명령어를 통해 HTTP 요청을 보낼 수 있습니다:

    curl https://api.voyageai.com/v1/embeddings \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $VOYAGE_API_KEY" \
      -d '{
        "input": ["Sample text 1", "Sample text 2"],
        "model": "voyage-3.5"
      }'

    받게 되는 응답은 임베딩과 토큰 사용량을 포함하는 JSON 객체입니다:

    {
      "object": "list",
      "data": [
        {
          "embedding": [-0.013131560757756233, 0.019828535616397858, ...],
          "index": 0
        },
        {
          "embedding": [-0.0069352793507277966, 0.020878976210951805, ...],
          "index": 1
        }
      ],
      "model": "voyage-3.5",
      "usage": {
        "total_tokens": 10
      }
    }
    

    Voyage HTTP API에 대한 자세한 정보는 Voyage 문서를 참조하세요.

    AWS Marketplace

    Voyage 임베딩은 AWS Marketplace에서 사용할 수 있습니다. AWS에서 Voyage에 접근하는 방법에 대한 안내는 여기에서 확인할 수 있습니다.

    빠른 시작 예제

    이제 임베딩을 얻는 방법을 알았으니, 간단한 예제를 살펴보겠습니다.

    검색할 6개의 문서로 구성된 작은 코퍼스가 있다고 가정해 봅시다

    documents = [
        "The Mediterranean diet emphasizes fish, olive oil, and vegetables, believed to reduce chronic diseases.",
        "Photosynthesis in plants converts light energy into glucose and produces essential oxygen.",
        "20th-century innovations, from radios to smartphones, centered on electronic advancements.",
        "Rivers provide water, irrigation, and habitat for aquatic species, vital for ecosystems.",
        "Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.",
        "Shakespeare's works, like 'Hamlet' and 'A Midsummer Night's Dream,' endure in literature."
    ]
    

    먼저 Voyage를 사용하여 각 문서를 임베딩 벡터로 변환합니다

    import voyageai
    
    vo = voyageai.Client()
    
    # Embed the documents
    doc_embds = vo.embed(
        documents, model="voyage-3.5", input_type="document"
    ).embeddings

    임베딩을 통해 벡터 공간에서 의미 검색/검색을 수행할 수 있습니다. 예제 쿼리가 주어지면,

    query = "When is Apple's conference call scheduled?"

    이를 임베딩으로 변환하고, 임베딩 공간에서의 거리를 기반으로 가장 관련성 높은 문서를 찾기 위해 최근접 이웃 검색을 수행합니다.

    import numpy as np
    
    # Embed the query
    query_embd = vo.embed(
        [query], model="voyage-3.5", input_type="query"
    ).embeddings[0]
    
    # Compute the similarity
    # Voyage embeddings are normalized to length 1, therefore dot-product
    # and cosine similarity are the same.
    similarities = np.dot(doc_embds, query_embd)
    
    retrieved_id = np.argmax(similarities)
    print(documents[retrieved_id])

    문서와 쿼리를 임베딩할 때 각각 input_type="document"와 input_type="query"를 사용한다는 점에 유의하세요. 자세한 사양은 여기에서 확인할 수 있습니다.

    출력은 5번째 문서가 되며, 이는 실제로 쿼리와 가장 관련성이 높은 문서입니다:

    Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.

    벡터 데이터베이스를 포함한 임베딩으로 RAG를 수행하는 방법에 대한 자세한 쿡북 세트를 찾고 계시다면, RAG 쿡북을 확인하세요.

    FAQ

    가격

    최신 가격 세부 정보는 Voyage의 가격 페이지를 방문하세요.

    Was this page helpful?

    • Anthropic에서 임베딩을 얻는 방법
    • Voyage AI 시작하기
    • Voyage Python 라이브러리
    • Voyage HTTP API
    • AWS Marketplace
    • FAQ