newsence
來源篩選

Relicensing with AI-Assisted Rewrite

Hacker News

The maintainers of the chardet project used Claude Code to rewrite their codebase to switch from LGPL to MIT license, sparking a legal debate over whether AI-generated code can bypass copyleft requirements or qualify as a clean room rewrite.

newsence

利用 AI 輔助重寫進行軟體授權變更

Hacker News
大約 6 小時前

AI 生成摘要

chardet 專案維護者利用 Claude Code 重寫程式碼,試圖將授權從 LGPL 變更為 MIT,這引發了關於 AI 生成程式碼是否能規避 Copyleft 要求或符合淨室重寫規範的法律爭議。

背景

開源社群近期針對 Python 字元編碼檢測庫 chardet 的授權變更引發激烈討論。該專案長期受限於原版 Mozilla C++ 程式碼的 LGPL 授權,導致企業用戶使用受阻;維護者近期利用 Claude Code AI 工具將整個程式碼庫重寫,並宣稱藉此將 v7.0.0 版本轉為 MIT 授權。此舉引發原作者質疑,認為這並非法律認可的「潔淨室」重寫,而是對 GPL 條款的規避,進而觸發了關於 AI 生成內容、版權歸屬與開源授權存續的深度辯論。

社群觀點

社群對此事件的看法呈現兩極化,核心爭議在於 AI 重寫是否能滿足法律上的「潔淨室」定義。部分討論者指出,傳統的潔淨室開發需要兩個完全隔離的團隊:一組負責從原始碼提取功能規格,另一組則在從未接觸過原始碼的情況下根據規格重新實作。然而,LLM 在訓練階段早已攝取了全球大量的開源程式碼,這使得 AI 幾乎不可能成為法律意義上的「潔淨開發者」。有觀點認為,即便透過提示詞要求 AI 僅根據規格實作,由於模型權重中已包含原始碼的記憶,這種轉換更像是程式碼的「編譯」或「翻譯」過程,而非獨立創作,因此 GPL 的傳染性依然存在。

針對法律層面的悖論,社群成員引用了美國最高法院近期拒絕受理 AI 版權上訴的案例,強調目前法律傾向於「人類作者」原則。這產生了一個尷尬的局面:如果維護者主張程式碼是 AI 獨立生成的「新作品」,那麼根據現行判例,這些程式碼可能根本不受版權保護,直接進入公有領域,這將使 MIT 授權聲明變得毫無意義。反之,如果主張人類在過程中提供了足夠的指導以獲得版權,那麼這些指導往往源於對原 LGPL 程式碼的理解,難以擺脫衍生著作的法律責任。

此外,社群對開源生態的未來表達了深切憂慮。有評論指出,如果 AI 重寫被視為合法的去授權手段,這將標誌著 Copyleft 精神的終結。任何開發者都能藉由 LLM 將 GPL 專案「洗」成 MIT 或商用授權,這可能迫使開發者為了保護成果而轉向閉源,形成所謂的「黑暗森林」效應。更有激進的觀點提議,應將 GPL 條款延伸至模型訓練階段,主張受 GPL 保護的程式碼所訓練出的模型,其輸出的任何內容都應自動繼承 GPL 授權,以反制 AI 公司的侵權行為。

然而,也有技術派討論者試圖尋找合法的技術路徑。例如,是否能透過微調技術從模型中「抹除」特定函式庫的記憶,或者使用完全未接觸過人類程式碼、僅透過隨機生成程式進行訓練的模型來達成真正的隔離。但多數人認為這在現階段極其困難,因為 LLM 的運作本質是基於訓練資料的機率分佈,難以證明其產出與原始受版權保護的作品之間不存在表達上的延續性。

延伸閱讀

  • NEC v. Intel 案:確立了潔淨室軟體開發不構成侵權的法律先例。
  • Compaq 逆向工程 IBM PC BIOS:潔淨室實作的經典商業案例。
  • Skadden 關於 Meta 與 Anthropic 公平使用(Fair Use)訴訟的法律分析。
  • Halt and Catch Fire:第一季劇情中對 BIOS 潔淨室工程的影視化呈現。