背景
紐約州近期提出一項新法案,要求所有由人工智慧(AI)生成的專業新聞內容必須附上明確的免責聲明。這項立法旨在應對生成式 AI 在新聞業日益普及的現狀,確保讀者能辨識內容來源,並試圖在技術變革中維護新聞的透明度與真實性。
社群觀點
Hacker News 的討論呈現出極度兩極化的態勢。支持者認為,AI 生成的內容往往具有高度的重複性、低價值,且極易被用於操縱敘事,因此強制標註是保護公眾知情權的必要手段。部分專業人士指出,新聞業的核心價值在於事實查核與責任歸屬,若媒體機構將 AI 產出的內容偽裝成人類創作,不僅是欺騙讀者,更可能導致錯誤資訊大規模擴散。他們主張,即便 AI 只是輔助工具,只要涉及實質性的內容創作,就應該讓讀者知曉其背後的技術參與。
然而,反對意見則對該法案的實效性表示強烈懷疑,並將其比喻為加州的「Prop 65」癌症警告標籤。批評者指出,當所有事物都被貼上警告標籤時,標籤本身就失去了警示作用。如果一名記者僅僅使用 AI 進行拼字檢查、語法修正或初步研究,是否也需要標註?若定義過於寬泛,最終可能導致所有新聞都帶有 AI 標籤,使其變得毫無意義。此外,有人擔心這會成為政府騷擾不喜歡的媒體機構的工具,因為要證明一段文字「完全沒有使用 AI」在技術上幾乎是不可能的。
討論中也出現了關於技術決定論的辯論。部分網友認為,試圖透過立法來阻擋 AI 浪潮是徒勞且感性的行為,因為 AI 帶來的經濟價值巨大,且技術早已普及於個人電腦中。他們認為大眾最終會像接受 Wikipedia 一樣接受 AI,目前的焦慮僅是面對變革時的「現狀偏誤」。但反對者駁斥這種觀點,認為投票權、工會與人權的建立都是透過規範技術與社會權力達成的,不應因技術已存在就放棄對其負面影響的監管。
此外,社群對於「新聞品質」的現狀也有深刻的反思。有觀點認為,現代新聞業為了置入廣告而產出的冗長廢話,本身就是 AI 模仿的對象,這解釋了為何 AI 產出的內容與現有新聞如此相似。部分討論者更進一步提出,與其糾結於是否使用 AI,不如強化新聞責任法,無論內容是由人類還是機器產出,只要涉及誤導或剽竊,編輯與機構就應承擔法律責任。這種「結果導向」的監管思維,被認為比追蹤創作過程中的每一個位元更具可行性。
延伸閱讀
在討論過程中,參與者提到了幾個值得關注的法律與政策案例:
- 加州 Prop 65 (Proposition 65):討論中多次引用的反面教材,指過度普遍的警告標籤會導致民眾產生審美疲勞而忽視風險。
- 紐約州 RAISE 法案與相關 AI 立法:包括針對前沿 AI 安全協議、廣告中 AI 虛擬人物披露,以及 AI 招聘工具偏見審計等一系列地方性法規。
- RoyalRoad 的 AI 政策:該文學網站將 AI 參與程度細分為「一般輔助」、「AI 輔助」與「AI 生成」三類,被視為一種可供參考的民間分類標準。
- 芬蘭公共廣播公司 YLE 的規範:該機構已實施類似規定,即便僅是對靜態圖片進行 AI 修補,也必須在文章中註明。