2. LLM 파라미터

  • LLM응답에 사용되는 파라미터들은 LLM응답의 다양성과 일관성을 조절하는 리모콘의 역할을 수행한다.

1. LLM 파라미터들

  • Model

    • 응답을 생성할 AI 버전을 선택.

    • 최신 버전 일수록 높은 추론능력을 가지고 있으나 가격이나 응답속도에 차이가 있음

  • Response format

    • AI의 응답형식을 지정하는 옵션(JSON / TEXT)

  • Function

    • AI가 응답데이터 함수를 사용할 수 있도록 설정하는 메뉴

    • Function Calling 기능과 연계시 사용한다.

  • Model configuration

    • Temperature : 창의성 설정. 비율이 높을수록 창의적인 답변을 반환.

    • Max tokens : 최대 토큰수 설정

      • 토큰 : NLP처리시 사용되는 언어의 단위.

      • Tokenizerarrow-up-right를 통해 내가 작성한 프롬프트의 토큰 수를 확인할 수 있다.

    • stop sequences

      • 특정 단어(EX) STOP, 종료)가 나오면 응답을 중지하도록 설정

      • 챗봇 개발시 대화를 종료하는 시퀀스를 만들 때 유용하다.

  • Top P

    • AI가 응답시 확률적으로 상위 P%에 해당하는 단어들만 사용하도록 설정

    • 비율이 낮을 수록 확률이 높은 답변만 채택하며, 비율이 높을수록 창의적인 응답이 가능하다.

    • Temperature와 비슷하지만, 보통 Temperature를 너무 높게 설정한 경우 AI가 잘못된 응답을 해줄것을 방지하기 위해 추가로 사용한다.

  • Frequency penalty

    • 동일한 단어나 문장이 반복되지 않도록 페널티 부여하는 옵션

    • 값이 높을수록 응답 생성시 중복된 단어를 사용하지 않는다.

  • Presence penalty

    • AI가 새로운 아이디어를 더 적극적으로 제시하도록 유도하는 옵션

    • 값이 높을수록 다양한 주제로 확장 가능

    • 채팅 AI처럼 다양한 주제로 대화를 이어가야 하는 앱을 만들고자 할때는 설정값을 높여준다.

    • 특정 도메인에 특화된 AI를 생성하고자 할때는 주제에 벗어나지 않게 끔 설정값을 낮춰준다.

Last updated