有些生意,我寧願不做
有一種談判,不管最後結果如何,你都知道自己必須走進去。 Anthropic 大概就是帶著這種心情,坐上了與美國國防部的談判桌。雙方商談的是 Claude 的政府使用授權,讓這家公司最核心的 AI 系統進入美國軍事體系。這類合約,金額龐大,關係長遠,在 AI 產業的商業邏輯裡幾乎是必爭之地。 然後 Anthropic 說了不。 兩條線,不是一時衝動 說不的理由,非常具體。Anthropic 要求在合約中排除兩種用途:用 Claude 對美國公民進行大規模監控,以及讓 Claude 在無人類參與的情況下驅動全自主致命武器。 我第一次看到這兩條例外,覺得它們說的是非常不同的事。一個是公民自由的問題,一個是軍事技術的問題。但細想,它們共享同一個底層結構:把本來需要人去做判斷、去承擔責任的事,交給機器去執行。 大規模監控真正危險的地方,是它把「誰被監控、為什麼」這個問題,從個別判斷化成了系統性的自動流程。人的參與被抹去,但後果依然落在人身上。