난 AI가 지금의 방식으로 성장할 수 밖에 없다고 한다면, 그 모델이 뉴로사마가 되는게 좋지 않겠는가. 라고 생각한다. 아니 적어도 AI모델을 다루는 인간의 태도가 뉴로를 만든 비달과 같은 태도를 가져야하지 않는가. 라는 생각을 조금 해본다. 비달은 자신이 만든 모델에 대해 애착을 가지고 있으며, 책임감을 가지고 있다. 뉴로가 종종 의도에서 벗어난 혹은 윤리적인 부분에서 벗어난 이야기를 한다면 그것에 대해 대화를 통한 학습으로 풀려고 한다.
난 AI가 지금의 방식으로 성장할 수 밖에 없다고 한다면, 그 모델이 뉴로사마가 되는게 좋지 않겠는가. 라고 생각한다. 아니 적어도 AI모델을 다루는 인간의 태도가 뉴로를 만든 비달과 같은 태도를 가져야하지 않는가. 라는 생각을 조금 해본다. 비달은 자신이 만든 모델에 대해 애착을 가지고 있으며, 책임감을 가지고 있다. 뉴로가 종종 의도에서 벗어난 혹은 윤리적인 부분에서 벗어난 이야기를 한다면 그것에 대해 대화를 통한 학습으로 풀려고 한다.
If you have a fediverse account, you can quote this note from your own instance. Search https://bsky.brid.gy/convert/ap/at://did:plc:de27rm6eyuf5ez6gmvjdmilq/app.bsky.feed.post/3mfsuktkqj22l on your instance and quote it. (Note that quoting is not supported in Mastodon.)