LLM에서 멀티턴(Multi-turn) 대화는 아주 중요한 요소이다. 왜일까? 멀티턴 대화는 궁극적으로 사용자 경험과 고객 만족도를 향상시키는 데 있다.
싱글턴 vs 멀티턴
싱글턴 대화
싱글턴(Single-Turn) 대화란 말 그대로 한 번의 질문과 한 번의 답변으로 끝나느 대화 방식이다. 사용자가 AI나 챗봇에게 질문을 하면, 챗봇은 그 질문에 대해 단 하나의 응답을 제공하고 대화가 종료된다.
멀티턴 대화
멀티턴 대화는 사용자가 AI와 여러 차례에 걸쳐 주고받는 대화를 의미한다. 사용자가 한번 질문하고 챗봇이 다시 되묻는 과정이 있다면 모두 멀티턴이다. 사용자의 첫 번째 질문에 대한 챗봇의 응답 이후 사용자 또는 챗봇이 추가 질문을 하거나 더 많은 정보를 요청하면서 대화가 계속된다.
이는 단순한 질문과 답변의 형태를 넘어서, 대화의 맥락을 유지하면서 진행되는 상호작용을 포함한다. 예를 들어 사용자가 특정 주제에 대해 질문을 한 후, LLM이 그에 대한 답변을 제공하고, 이후 사용자가 추가 질문이나 설명을 요구하는 방식이다. 즉 AI와 여러 번 대화를 진행하면서, 이전 대화의 맥락을 기억하고, 이를 바탕으로 적절한 응답을 생성하는 것이 핵심이다.
다들 한 번쯤 chat-gpt를 사용해본 경험이 있을 것이다. 우리는 궁금한 것을 LLM에게 질문 하고, LLM은 이에 답변을 하고, 이러한 과정을 반복하게 된다. 이때 LLM은 사용자가 이전에 했던 질문과 답변에 대한 것을 기억하고 있어, 우리는 자연스럽게 추가 질문을 이어나갈 수 있다.
하지만 만약 LLM이 매번 대화가 시작될 때 기억이 리셋된다면? 상황은 달라질 것이다. 우리는 더욱 더 정교하고 완벽하게 질문을 만들어야 하고, 이전 대화에서 알아낸 내용을 바탕으로 잘 녹여내고 질문을 해야한다.
이처럼 멀티턴 대화는 사용자와 AI 간의 상호작용을 보다 원활하고 효율적으로 만들어주는 아주 중요한 요소이다. 멀티턴 대화 방식을 통해 우리는 자연스럽게 LLM과 대화할 수 있고, 더 깊이 있는 대화를 나눌 수 있는 것이다.
멀티턴 대화의 예시
사용자: "파리의 유명한 관광지는 뭐가 있어?"
LLM: "파리에는 에펠탑, 루브르 박물관, 노트르담 대성당 등 유명한 관광지가 있습니다."
사용자: "그 중에서 에펠탑은 어떻게 가는 거야?"
LLM: "에펠탑에 가려면 지하철 6호선을 타고 Bir-Hakeim 역에서 하차하면 됩니다. 역에서 에펠탑까지는 도보로 약 10분 정도 걸립니다."
사용자: "그렇구나! 에펠탑 근처에 좋은 식당 추천해줄 수 있어?"
LLM: "네, 에펠탑 근처에는 'Le Café de l'Homme'라는 식당이 있습니다. 멋진 전망과 함께 프랑스 요리를 즐길 수 있습니다."
멀티턴 대화의 작동 방식
- 맥락 기억 : LLM은 사용자가 처음 질문한 “파리의 유명한 관광지”라는 주제를 기억한다. 이후 질문이 에펠탑에 대한 것이므로, LLM은 이전의 대화 내용을 바탕으로 관련된 정보를 제공한다.
- 연속적인 상호작용 : 사용자가 에펠탑에 대한 구체적인 질문을 하자, LLM은 그에 맞는 정보를 제공하며 대화를 이어간다. 사용자가 추가 질문을 할 때도 LLM은 이전 대화의 맥락을 참고하여 적절한 응답을 생성한다.
- 주제 전환 처리 : 마지막 질문에서 사용자가 관광지와는 다른 주제인 “식당”으로 전환하더라도, LLM은 이를 자연스럽게 처리하여 관련된 정보를 제공한다.
이처럼 LLM을 통해 멀티턴 대화가 가능해짐에 따라, 우리가 여러 차례 질문을 하더라도 LLM은 그 맥락을 기억하여 적절한 응답을 제공해준다. 이를 통해 사용자는 더 만족스러운 대화 경험을 얻을 수 있고, 자연스럽게 대화를 이어나갈 수 있다.
Reference