作者 | 周愚
【資料圖】
編輯 | 鄧詠儀
當監(jiān)管的目光開始頻頻投向AI,科技巨頭們正在用自愿倡議的方式占據(jù)主動權。
美國時間7月26日,OpenAI、微軟、谷歌和Anthropic等四家AI領域巨頭宣布成立行業(yè)組織“前沿模型論壇”(Frontier Model Forum),目的是“確保前沿AI開發(fā)的安全和負責任”。
7月初,OpenAI曾就“前沿AI監(jiān)管”發(fā)文,將“前沿AI”模型定義為:具有造成嚴重公共安全風險能力的高性能基礎模型。
來源:OpenAI推特
聲明指出,論壇的核心目標包括如下四點:
推動人工智能安全研究,促進前沿模型負責任的發(fā)展,最大限度降低風險,實現(xiàn)對AI能力與安全的獨立、標準化評估。 確定負責任前沿模型開發(fā)和部署的最佳做法,向公眾普及AI技術的性質、能力、限制與影響。 與政策制定者、學者、民間社會和公司合作,并分享有關AI信任和安全風險的知識。 針對解決當前社會最大挑戰(zhàn),如氣候變化減緩和適應、早期癌癥檢測和預防,以及網(wǎng)絡威脅應對,支持開發(fā)相關應用。這些目標與四家公司上周五在白宮作出的自愿承諾基本一致,當時共同作出承諾的公司還有Meta、亞馬遜和Inflection。
“開發(fā)人工智能技術的公司有責任確保其安全、可靠,并處于人類控制之下。”微軟總裁布拉德·史密斯在聲明中強調。
論壇的成立體現(xiàn)了行業(yè)巨頭在AI安全方面的積極態(tài)度,但這些公司也希望借此換取更大的主動空間——用主動合規(guī)避免被動監(jiān)管,甚至在一定程度上參與規(guī)則的制定。
四家公司發(fā)布的聲明中表示,“前沿模型論壇”希望支持和推動現(xiàn)有政府和多邊倡議在人工智能方面的工作,包括七國集團(G7)廣島AI進程,經(jīng)合組織(OCED)關于AI風險、標準與社會影響的工作,以及美歐貿(mào)易和技術理事會(TTC)的相關工作。
在接下來的數(shù)月內(nèi),該論壇將首先建立起一個顧問委員會,以幫助指導論壇的戰(zhàn)略和優(yōu)先事項。聲明稱,該委員會將“代表不同的背景和觀點”。在未來幾周內(nèi),還將與民間社會和各國政府,就論壇的設計與合作方式展開磋商。
未來一年,前沿模型論壇將重點關注確定最佳做法、推動AI安全研究、促進企業(yè)與政府間信息共享等三個關鍵領域,并歡迎其他前沿AI模型開發(fā)者加入論壇。
關鍵詞:
責任編輯:Rex_27