作者 | 周愚
【資料圖】
編輯 | 鄧詠儀
當監管的目光開始頻頻投向AI,科技巨頭們正在用自愿倡議的方式占據主動權。
美國時間7月26日,OpenAI、微軟、谷歌和Anthropic等四家AI領域巨頭宣布成立行業組織“前沿模型論壇”(Frontier Model Forum),目的是“確保前沿AI開發的安全和負責任”。
7月初,OpenAI曾就“前沿AI監管”發文,將“前沿AI”模型定義為:具有造成嚴重公共安全風險能力的高性能基礎模型。
來源:OpenAI推特
聲明指出,論壇的核心目標包括如下四點:
推動人工智能安全研究,促進前沿模型負責任的發展,最大限度降低風險,實現對AI能力與安全的獨立、標準化評估。 確定負責任前沿模型開發和部署的最佳做法,向公眾普及AI技術的性質、能力、限制與影響。 與政策制定者、學者、民間社會和公司合作,并分享有關AI信任和安全風險的知識。 針對解決當前社會最大挑戰,如氣候變化減緩和適應、早期癌癥檢測和預防,以及網絡威脅應對,支持開發相關應用。這些目標與四家公司上周五在白宮作出的自愿承諾基本一致,當時共同作出承諾的公司還有Meta、亞馬遜和Inflection。
“開發人工智能技術的公司有責任確保其安全、可靠,并處于人類控制之下?!蔽④浛偛貌祭隆な访芩乖诼暶髦袕娬{。
論壇的成立體現了行業巨頭在AI安全方面的積極態度,但這些公司也希望借此換取更大的主動空間——用主動合規避免被動監管,甚至在一定程度上參與規則的制定。
四家公司發布的聲明中表示,“前沿模型論壇”希望支持和推動現有政府和多邊倡議在人工智能方面的工作,包括七國集團(G7)廣島AI進程,經合組織(OCED)關于AI風險、標準與社會影響的工作,以及美歐貿易和技術理事會(TTC)的相關工作。
在接下來的數月內,該論壇將首先建立起一個顧問委員會,以幫助指導論壇的戰略和優先事項。聲明稱,該委員會將“代表不同的背景和觀點”。在未來幾周內,還將與民間社會和各國政府,就論壇的設計與合作方式展開磋商。
未來一年,前沿模型論壇將重點關注確定最佳做法、推動AI安全研究、促進企業與政府間信息共享等三個關鍵領域,并歡迎其他前沿AI模型開發者加入論壇。
關鍵詞:
責任編輯:Rex_27