因為我也在用ai,我對AI生產的東西都保持一種基本的懷疑,就是說,他給的答案是參考用的,你自己要負最後使用的責任,你得隨時想到,他這個說法來源是什麼?會不會這一點上有幻覺?這不是什麼疑神疑鬼,是幻覺看多了之後不得不然的結果。總之最後AI並不是真正的資訊來源,而是一個工具,他給的資料其實還是類似搜尋引擎,只是他幫你消化過了。

結果是,如果別人的產出太像AI,我也會套上同樣的疑慮(基本上就不太看重)。我覺得現在的新聞報導還是專題,都應該揭露使用AI的程度。而且應該要有個更清楚的規範。

AI革命的一個可能結果就是社會信任的崩潰。沒有人能再確認這個照片是不是被改過,那篇文章是人的觀點還是AI的算法。

我很不喜歡看人家用AI生成的東西。我猜那些現在必須閱讀學生用AI寫的報告的老師應該很苦惱。

其實 AI 做總結也是一個陷阱。那些總結看起來有模有樣,但其實常常是任意的,未必真正掌握文章主旨,而似乎是撈關鍵字用算法生成。你真正讀懂文章的話,可以用一句半句把主要意思點出來,但這種等級的總結,AI還是做的沒有比人好(大概跟文章性質也有關,有複雜論證的 AI 表現其實滿差的)。

但是仰賴或相信AI總結的話,會錯過重要的理解過程。表面上是省力省時,實際上會損壞你對主題的認識。有點像一齣精心製作的劇,你直接先看一個粗糙的大綱劇透,然後用5倍速把劇掃過去,這樣雖然省了5倍的時間,但有可能根本錯過了最重要的東西。

0

If you have a fediverse account, you can quote this note from your own instance. Search https://g0v.social/users/tuzzi/statuses/114742411318345609 on your instance and quote it. (Note that quoting is not supported in Mastodon.)