이런글이 보여서 좀 봤는데 혹시나 싶어서 ChatGPT님의 의견을 구하니 "정리하면, 어텐션의 에너지·지연을 ‘크게’ 줄이면서도 GPT-2급 정확도를 ‘유지’하는 것은 논문 범위에서 타당해 보입니다. 다만 전체 LLM 전력/성능은 나머지 층까지 아날로그/근접메모리화가 함께 가야 (실제로 전력 소모가 크게 줄어들고 빠르게 잘될것 입니다)" 라는 뉘앙스. 그러니까 논문이 구라는 아닌것이고 기존의 비싸고 전력먹는 엔비디아 하드웨어를 굳이 쓰지 않아도 다른 하드웨어 레벨의 방법이 있다는것을 보여준것 같음.

0

If you have a fediverse account, you can quote this note from your own instance. Search https://bsky.brid.gy/convert/ap/at://did:plc:owujq5v3xne4awdkgrnizz6w/app.bsky.feed.post/3lzq4zpk5mc2e on your instance and quote it. (Note that quoting is not supported in Mastodon.)