이번에 여러 가지 실험을 해보면서 확실하게 알게 된 점이 있는데, GPT 같은 언어모델은 입력 텍스트를 사람처럼 여러 번 되돌아보며 확인하는 것이 아니고 전체 문장을 한번 시작부터 끝까지 읽고 받아들인 뒤 (내부에서 물론 여러 단계/레이어의의 처리를 거치는데 입-출력 방향으로 가고 거꾸로 가진 않음) 출력 내용을 결정하는 방식인데 그래서 이렇게 되돌아 읽기나 재검증을 스스로 할 수 없다는 점 즉 구조적 한계가 있음 그래서 이걸 못하니까 많이 헤메고 문제가 생기는듯 사람에게 이렇게 하라고 하면 미쳐버릴듯 ㅎㅎ

0

If you have a fediverse account, you can quote this note from your own instance. Search https://bsky.brid.gy/convert/ap/at://did:plc:owujq5v3xne4awdkgrnizz6w/app.bsky.feed.post/3m77c4n6qpc2k on your instance and quote it. (Note that quoting is not supported in Mastodon.)