요즘 일본어 공부할 때 사전형 단어 같은 거 학습할 땐 파파고에다가 단일 단어 위주로 해서 바로바로 그냥 한국어 입력해서 번역된 거로 배우고 (예문이랑 같이 떠서 좋음), 맥락이라든가 뉘앙스 혹은 collocation이 어떻게 이루어지는지 알고싶을 때(소위 말하는 '어감')는 LLM이 출력해준 걸로 배운다. 어릴 때 영어 배울 땐 후자에 대한 학습을 명시적으로 받지 않아서 직접 원서 읽거나 드라마나 영화 보면서 자연스럽게 체득하거나, SKELL 같은 collocation/thesaurus 사전을 활용한다든가, 원어민들한테 하나하나 물어보면서 깨부하면서 배웠는데 LLM이 그 역할을 완벽히까지는 아니더라도 어느 정도는 하는 것 같아서 좀 편함...

그나저나 나 지금까지 파파고 규칙기반+인공신경망 조합으로 학습된 건 줄 알았는데 (연식이 좀 된 플랫폼이니깐) 문서 보니깐 인공신경망만 썼나보네...정확히 무슨 모델을 썼는지는 안 나와있는데 인코더 디코더랑 병렬코퍼스가 언급되어 있는 걸 보니 seq2seq 같은 거 쓰는 걸까 싶다.

2

If you have a fediverse account, you can reply to this note from your own instance. Search https://hackers.pub/ap/notes/01995b95-a905-7150-8667-cf1254691c4f on your instance and reply to it.