당장은 LLM 할애비가 와도 아마 근본적인 해결은 안 될 것이, 얘네라고 해서 [제한된 컨텍스트 윈도우] 에서 오는 파악력의 한계는 변하는 게 없거든. 인간에게서도 주의력Attention의 한계에서 비롯하는 놓침인데, 바로 그 Attention을 중심으로 돌아가는 트랜스포머 중심 언어 모델의 처리능력도 본질적으로 부딪히는 문제가 다르지가 않음. 모델 하나가 이 커다란 코드 베이스를 원샷에 짤 것도 아니고?
당장은 LLM 할애비가 와도 아마 근본적인 해결은 안 될 것이, 얘네라고 해서 [제한된 컨텍스트 윈도우] 에서 오는 파악력의 한계는 변하는 게 없거든. 인간에게서도 주의력Attention의 한계에서 비롯하는 놓침인데, 바로 그 Attention을 중심으로 돌아가는 트랜스포머 중심 언어 모델의 처리능력도 본질적으로 부딪히는 문제가 다르지가 않음. 모델 하나가 이 커다란 코드 베이스를 원샷에 짤 것도 아니고?
If you have a fediverse account, you can quote this note from your own instance. Search https://bsky.brid.gy/convert/ap/at://did:plc:g4277rrszeonl4yzrpk26bou/app.bsky.feed.post/3mfj5anxwgc2b on your instance and quote it. (Note that quoting is not supported in Mastodon.)