演算法
最近讀到一篇關於 AI 的文章。作者 Carlos Fenollosa 是加泰隆尼亞理工大學的 AI 課程教授,他在那篇部落格文章中提到因為學生喜歡用 ChatGPT 寫報告,所以他決定用 Gemini 2.5 Pro 批改,沒想到發現了一個現象: AI 傾向把 AI 寫的報告評得異常高分。 Fenollosa 發現,除了自己發明不存在的評分標準或是報告內容等 AI 幻覺之外,AI 會把結構很完美但內容錯誤百出、毫無邏輯的報告 (也就是最明顯完全是用 AI 生成的那種)評得異常高分。
現在大部分的社群媒體都有演算法推薦系統,用來決定要把哪些內容推送給用戶或是放上首頁。如果他們的演算法用了比較多的 LLM 評分,就可能會把那種乍看感覺很完整或是很有看點,但是都是假消息與錯誤資訊的貼文影片推上熱門。這樣的話,用 AI 大量生成的內容農場就會受到更多推播。漂亮的假消息受演算法青睞被推上去,講求事實的真人貼文卻連追蹤者都看不到。打開社群媒體看到盡是 AI Slop,大家不假思索的就把 AI 幻覺當世界趨勢,還拿它當自己人生決定的標準— 然後才發現自己被詐騙了。
雖然大部分的推薦演算法還是會參考用戶互動和貼文主題等等因素,但考慮到通常在 SNS 平台,貼文影片發布第一時間的互動常常是最多的,或至少一定程度上反應了它長期的表現情形,受 AI 青睞的 AI 內容還是一發布就更容易佔優勢。不過即使平台真的有效避免了這種問題,他們的演算法依然是為了增加廣告收益而服務,所以也不一定會減少推播假消息。更別說他們還有可能手動推播特定內容— 誰知道那是經過查證的消息,還是又是 AI 幻想出來的平行世界呢?