重點摘要
當 AI 在 10 秒內重寫 left-pad,Phoenix BIOS 判例是護身符還是遮羞布?
Malus 聲稱用 AI 實現 1984 年 Phoenix 對 IBM BIOS 的 clean room 隔離,但 chardet 7.0.0 爭議顯示維護者接觸原始碼的事實難以迴避
FOSDEM 2026 演講指出 AI 可在數秒內重製 90% 開源供應鏈,執法成本降至零將根本改變授權條款的實質效力
公司名稱取自拉丁文「邪惡」,接受比特幣付款,社群評論「太接近真相」——諷刺專案映照出真實的商業化可能性
前情提要
Malus 是一個成立於 2024 年的「Clean Room as a Service」平台,透過 AI 自動重寫開源套件以規避授權義務。該服務在 FOSDEM 2026(2026 年 1 月 31 日)引發社群激烈討論,核心爭議在於:當 LLM 讓重寫成本趨近於零,傳統的 clean room 法律先例是否仍能站得住腳?
Clean Room 反向工程的法律背景與歷史
Clean room 反向工程源自 1984 年 Phoenix Technologies 對 IBM BIOS 的合法重製,其核心原則是將「分析團隊」與「實作團隊」完全隔離,確保後者從未接觸原始碼。
這項技術在 1980 年代確立了重要的法律先例:只要實作者能證明完全獨立於原始碼,即使功能相同也不構成侵權。Phoenix 案例的成功關鍵在於嚴格的流程管控:分析團隊僅能撰寫規格文件,不得與實作團隊有任何直接溝通。
這套方法後來成為業界標準,用於合法重製受保護的軟體功能,但成本高昂且耗時。一個典型的 clean room 專案可能需要數月甚至數年,且必須投入大量法律與工程資源確保隔離程序的完整性。
LLM 如何實現自動化 Clean Room 重寫
Malus 聲稱其 AI 機器人遵循相同流程:分析機器人僅讀取 README、API 規格與型別定義,撰寫規格文件後交由另一組從未接觸原始碼的機器人實作,最終產出 MalusCorp-0 授權的專有程式碼。
技術流程分四步驟:上傳依賴清單(package.json、requirements.txt)、隔離分析公開文件、獨立重新實作、交付專有授權碼。該服務號稱處理速度極快,left-pad 套件 10 秒、SPACEWAR! 5 秒,並提供「交付時零 CVE」保證。
然而真實案例 chardet 7.0.0 爭議暴露了關鍵問題:維護者 Dan Blanchard 使用 Claude AI 將 Python 字元編碼偵測庫從 LGPL 重寫為 MIT 授權,原作者 Mark Pilgrim 於 2026 年 3 月 4 日提出異議,認為維護者「對舊程式碼有充分接觸」,不符合 clean room 獨立性要求。
雖然 JPlag 相似度分析僅顯示 1.29%(歷史版本間為 43-93%),但 Simon Willison 指出三大疑慮:開發者有十年 chardet 架構經驗、Claude 訓練資料可能包含 chardet 本身、重寫計畫明確要求參考 6.0.0 的 metadata 檔案作為「權威參考」。HN 用戶 ylere 更示範 Claude Opus 能逐字重現 chardet 原始碼含授權標頭,質疑所謂「clean」重寫的真實性。
名詞解釋
JPlag 是一款程式碼相似度分析工具,常用於偵測抄襲或評估程式碼重寫的獨立性程度。數值越低表示相似度越低。
對開源軟體生態的衝擊與爭議
FOSDEM 2026 演講指出,現今 AI agent 可在「數秒內重製 90% 的開源供應鏈」,這將根本性改變授權遵循成本。HN 用戶 jerf 提出關鍵洞察:執法成本決定法律的實質運作。
當 AI 讓 clean room 重寫成本趨近於零,名義上相同的授權條款將產生完全不同的政策效果,如同「設立速限告示牌後不管」與「機器人剛性執法」代表三種截然不同的現實。
Malus CEO Mike Nolan 在 2026 年 3 月 1 日部落格文章《Thank You for Your Service: On the Quiet Obsolescence of Open Source》中宣稱企業年度授權成本遠低於傳統合規基礎設施,並暗示開源維護者的「深夜罪惡感螺旋」已無必要。
然而 SlinkyOnStairs 反駁:平行創作不足以辯護,當訓練資料包含受版權保護的材料時,法律主張依然存在。Willison 預測一旦企業意識到智慧財產權威脅,商業訴訟將不可避免。
社群反應與商業化可行性分析
Malus 的諷刺性質從公司名稱(拉丁文「邪惡」之意)、誇張證言(「終結深夜罪惡感」)與免責聲明中可見一斑。然而其技術細節的精確性與定價結構的合理性,讓社群無法單純將其視為玩笑。
HN 討論串揭露社群對此議題的深層焦慮:jdlyga 預測「再給兩年這會成真」,gaigalas 質疑「為何要付費?我自己問 LLM 就好」,m3kw9 將其比擬為加密貨幣混幣器——一種技術上可行但道德上可議的服務。
kpcyrd 連結真實事件顯示「太接近真相」,而 modeless 與 Twey 辯論精確執法的悖論:法律系統過於複雜,完美執法前必須先簡化法規,否則「每個人都是罪犯」。
Malus 定價採按套件大小(每 KB 計費)、接受美元 / 歐元 / 比特幣甚至股票選擇權,單筆訂單最多 50 個套件、單一套件上限 10 MB。這些細節增添其諷刺的可信度,同時映照真實商業化可能性。
多元觀點
正方立場
技術上可行且合法
Malus 支持者主張 AI 機器人完全遵循 Phoenix Technologies 確立的 clean room 流程:分析機器人僅讀取公開文件(README、API 規格),撰寫規格後交由另一組從未接觸原始碼的機器人實作。這種隔離比人類團隊更可靠,因為機器人不會「偷看」或「記憶」原始碼。
揭露授權生態的不合理性
Mike Nolan 在部落格文章中指出,企業年度授權合規成本遠高於 Malus 訂閱費用,卻仍無法保證完全合規。開源維護者期待「免費勞動 + 無限責任」的模式本就難以持續,AI 只是揭露了這個結構性困境。
市場效率的理性選擇
當授權條款日益複雜(LGPL 動態連結爭議、AGPL 網路服務條款、GPL 相容性問題),企業選擇成本更低的合法替代方案是理性決策。Malus 提供的是「授權自由」而非「盜版」,符合市場需求。
反方立場
獨立性無法證明
Mark Pilgrim 對 chardet 7.0.0 的異議指出核心問題:維護者有十年 chardet 架構經驗,「對舊程式碼有充分接觸」。Simon Willison 進一步質疑三大疑慮:開發者記憶、LLM 訓練資料包含原始碼、重寫計畫明確要求參考舊版 metadata。
訓練資料侵權爭議
SlinkyOnStairs 反駁:平行創作不足以辯護,當訓練資料包含受版權保護的材料時,法律主張依然存在。HN 用戶 ylere 示範 Claude Opus 能逐字重現 chardet 原始碼含授權標頭,證明 LLM「記得」原始碼內容。
商業訴訟不可避免
Willison 預測一旦企業大規模採用 Malus,智慧財產權訴訟將接踵而至。屆時法院將裁定 AI 訓練資料是否構成「接觸原始碼」,這將是 Phoenix 判例無法涵蓋的新議題。
中立/務實觀點
執法成本決定法律實質運作
HN 用戶 jerf 提出關鍵洞察:當 AI 讓 clean room 重寫成本趨近於零,名義上相同的授權條款將產生完全不同的政策效果。如同「設立速限告示牌後不管」與「機器人剛性執法」代表截然不同的現實,授權條款的實質意義取決於執法成本。
精確執法前須簡化法規
modeless 與 Twey 辯論的悖論揭示更深層問題:法律系統過於複雜,完美執法前必須先簡化法規,否則「每個人都是罪犯」。開源授權生態也面臨相同困境:當合規成本高到企業無法承受,他們將尋找漏洞而非遵守規則。
Malus 是症狀而非病因
Malus 的諷刺性質(公司名稱「邪惡」、誇張證言)映照出開源授權執法的結構性困境。真正的問題不是 AI 技術,而是授權生態能否在「零執法成本」時代重新定義合理的權利義務邊界。
實務影響
對開發者的影響
開發者需要重新評估專案的授權策略。當 AI 能在 10 秒內重寫 left-pad,選擇 LGPL 或 AGPL 等 copyleft 授權是否還能有效保護貢獻者權益?實務上,開發者應:
- 理解 LLM 訓練資料的法律邊界(Claude、GPT-4 是否「記得」你的程式碼?)
- 評估專案授權風險(若維護者有接觸原始碼的經驗,AI 重寫是否仍構成 clean room?)
- 考量授權條款的執法成本(選擇授權時不只看條文,還要評估違規偵測與訴訟的實際可行性)
對團隊/組織的影響
企業法務與工程團隊需要重新檢視開源依賴的合規策略。傳統的「授權審查 + 人工追蹤」流程在 AI 時代可能失效,因為:
- AI 重寫工具讓「移除依賴」變得極度便宜,企業可能選擇重寫而非遵守 copyleft 條款
- 合規成本與 AI 重寫成本的天平已傾斜,組織需要評估法律風險與商業效益
- 智慧財產權保護機制需要更新(如何證明 AI 生成的程式碼侵權?如何偵測大規模 AI 重寫?)
短期行動建議
無論是否使用 Malus,開發者與企業都應採取以下行動:
- 關注 AI 生成程式碼的判例演進(chardet 7.0.0 爭議、GitHub Copilot 訴訟後續)
- 檢視專案授權依賴鏈,識別哪些關鍵套件可能面臨重寫或授權變更風險
- 參與開源授權討論,推動適應 AI 時代的新授權模式(如「訓練資料豁免條款」或「AI 生成程式碼標示義務」)
社會面向
產業結構變化
當 AI 讓開源套件重寫成本趨近於零,產業結構將面臨三大變化。首先,開源合規成本大幅降低,企業不再需要龐大的法務團隊追蹤授權條款。
其次,授權執法困難度上升,維護者難以偵測與證明 AI 生成程式碼的侵權行為(JPlag 相似度分析在 AI 重寫場景下可能失效)。最後,商業模式可能從「授權收費」轉向「服務與支援」,因為程式碼本身不再具有稀缺性。
倫理邊界
核心倫理問題是:AI 訓練資料包含受版權保護的材料時,生成的程式碼是否構成衍生作品?傳統 clean room 要求「實作者從未接觸原始碼」,但 LLM 的「記憶」是分散在神經網路權重中的,無法像人類大腦一樣清楚切割。
獨立性定義在 AI 時代需要重新界定:是否要求 LLM 訓練資料不包含目標套件?還是只要求生成過程中未直接引用原始碼?開源貢獻者的權益保護機制也需要更新,傳統的 copyleft 授權可能在「零執法成本」時代失效。
長期趨勢預測
智慧財產權法律將面臨重大考驗。法院必須裁定「LLM 訓練資料是否構成接觸原始碼」、「AI 生成程式碼的侵權判定標準」等前所未有的議題。這些判例將塑造未來數十年的軟體產業規則。
開源授權可能演進出新形式,如「AI 友善授權」(明確允許訓練資料使用但要求標示來源)或「反 AI 授權」(禁止用於 LLM 訓練)。執法成本降低可能導致兩極化:要麼授權條款極度寬鬆 (MIT / Apache 2.0) ,要麼加入技術手段強制執行(如程式碼浮水印、區塊鏈授權追蹤)。
Malus 的諷刺最終可能成為預言:當「數秒內重製 90% 開源供應鏈」成為現實,開源社群必須在「放棄執法」與「技術軍備競賽」之間做出選擇。
唱反調
AI clean room 技術上可行且合法,Phoenix Technologies 案例已確立先例,Malus 只是將既有流程自動化,機器人隔離比人類團隊更可靠
開源授權執法成本過高本就不合理,維護者期待「免費勞動 + 無限責任」的模式難以持續,AI 只是揭露了這個事實
當企業面臨日益複雜的授權合規要求(LGPL 動態連結爭議、AGPL 網路服務條款),選擇成本更低的合法替代方案是理性決策,Malus 揭露的是授權生態的結構性困境而非技術問題
社群風向
再給兩年,這就會成為現實。
這很快就不再是笑話了,讓我想起加密貨幣混幣器。
為什麼要付費?毫無意義。這只是向我確認『LLM 可以做得夠可靠,所以有人試圖販售』,那我自己問 LLM 就好。
這讓我想起 GNU coreutils 重寫為 Rust 的專案 uutils/coreutils。
我本來真的希望這只是個會幫我打掃房間的服務。
炒作指數
行動建議
關注 AI 生成程式碼的智慧財產權判例演進,特別是 chardet 7.0.0 爭議後續與類似案例
追蹤企業如何因應開源授權合規成本上升,是否出現大規模 AI 重寫專案
檢視自己專案的授權依賴鏈,評估哪些關鍵套件可能面臨重寫或授權變更風險