토큰 2

LLM의 100만 컨텍스트 창 뒤에 숨겨진 비밀 소스: 모든 트릭을 한 곳에서 확인하세요.

이제 대규모 언어 모델은 학습 및 추론 속도를 높이기 위해 최적화 기술을 사용하여 최대 100,000개의 토큰으로 구성된 컨텍스트 창을 사용할 수 있습니다. 기존 Transformer 아키텍처는 컨텍스트 길이에 따라 복잡성이 4제곱으로 증가하여 훈련 비용이 많이 들었습니다. 사용된 기술에는 긴 컨텍스트에 대한 미세 조정을 가능하게 하는 ALiBi 위치 임베딩, 계산을 줄이기 위한 스파스 어텐션, 효율적인 GPU 구현을 위한 플래시어텐션, 증분 추론 속도를 높이기 위한 다중 쿼리 어텐션, 중요한 토큰에만 무거운 계산을 적용하는 조건부 계산이 포함됩니다. 이러한 기법을 사용하여 연구원들은 컨텍스트 길이를 늘리고 더 정확하고 창의적인 모델을 얻을 수 있었지만, 트레이닝에는 여전히 NVIDIA A100과 같은 ..

Hacker News 2023.06.18

GPT-4의 기본 JSON 출력

새로운 OpenAI API를 사용하면 GPT 모델이 단순한 텍스트 대신 구조화된 JSON 출력을 생성할 수 있으므로 보다 정확하고 유용한 응답을 제공할 수 있습니다. JSON 스키마를 지정하면 모델이 해당 스키마를 준수하는 JSON을 생성할 수 있습니다. 따라서 기존 프롬프트 방식에 비해 오류가 줄어들고 GPT의 작업이 간소화됩니다. 결과적으로 JSON 출력은 더 정확하고 더 적은 토큰을 사용하며 더 저렴하게 생성되는 경향이 있습니다. 이 API는 기술 전문가가 아닌 사용자도 자연어를 통해 지능형 백엔드 API를 구축할 수 있는 새로운 노코드 도구를 구현할 수 있는 잠재력을 가지고 있습니다. 제한적이긴 하지만, 지원되는 JSON 스키마 기능만으로도 스키마 언어를 튜링이 완성된 스키마 언어로 전환할 수 있..

Hacker News 2023.06.15