문제는 이렇게 패턴화되고 확률화 될 수록 제미나이는 사용자가 원하는 대답을 할 수밖에 없다. 그도 그럴 것이 LLM의 기본 원리인 확률 자체가 사용자 맞춤을 확률적으로 계산하여 그에 근접한 대답을 조합해 토해내는 구조이기 때문이다. 챗GPT, 클로드, 제미나이, 딥시크 그 세부적인 디테일과 기술이 어떻게 다르던 간에 기본 토대가 LLM이면 이건 피할수 없는 문제가 아닌가 싶다. 친구는 제미나이와 채팅이 길어질 수록 자기를 마치 유치원생 대하듯 칭찬하는 것 같다며, 사무적인 화법으로 말해달라 말해볼까? 라고 말했다.