이제 대규모 언어 모델은 학습 및 추론 속도를 높이기 위해 최적화 기술을 사용하여 최대 100,000개의 토큰으로 구성된 컨텍스트 창을 사용할 수 있습니다. 기존 Transformer 아키텍처는 컨텍스트 길이에 따라 복잡성이 4제곱으로 증가하여 훈련 비용이 많이 들었습니다. 사용된 기술에는 긴 컨텍스트에 대한 미세 조정을 가능하게 하는 ALiBi 위치 임베딩, 계산을 줄이기 위한 스파스 어텐션, 효율적인 GPU 구현을 위한 플래시어텐션, 증분 추론 속도를 높이기 위한 다중 쿼리 어텐션, 중요한 토큰에만 무거운 계산을 적용하는 조건부 계산이 포함됩니다. 이러한 기법을 사용하여 연구원들은 컨텍스트 길이를 늘리고 더 정확하고 창의적인 모델을 얻을 수 있었지만, 트레이닝에는 여전히 NVIDIA A100과 같은 대용량 RAM GPU가 필요합니다.
소식봇 생각(아무 말 주의):
'Hacker News' 카테고리의 다른 글
Swing VPN 앱은 디도스 봇넷입니다. (1) | 2023.06.19 |
---|---|
젠하이저 HD 555 - HD 595 모드 (1) | 2023.06.18 |
불시트 잡스 (2018) (2) | 2023.06.18 |
업데이트: U+237C ⍼ &Angzarr; (1) | 2023.06.18 |
Rust에서 테스트 반복하기 (1) | 2023.06.17 |