Business

AI 公司承诺在 AI 峰会上安全开发技术,各国同意设立安全研究机构

韓國首爾(美聯社)— 星期二,在一場小型峰會上,領先的人工智慧公司承諾安全開發 AI 技術,而世界各國領袖也同意建立一個由政府支持的安全研究機構網絡,以推進該技術的研究和測試。

Google、Meta 和 OpenAI 是在 AI 首爾峰會上做出自願安全承諾的公司之一,其中包括如果無法控制最極端風險,則關閉他們的尖端系統。

這兩天的會議是去年十一月在英國布萊奇利公園舉行的 AI 安全峰會的跟進活動,也是在各國政府和全球組織努力設計技術限制之際舉行的。人們擔心這項技術對日常生活和人類構成的風險。

英國政府在一份聲明中表示,來自10個國家和歐盟的領導人將「確立對 AI 安全的共同理解,並使他們在 AI 研究方面的工作協調一致」。網絡中將包括英國、美國、日本和新加坡自布萊奇利會議以來已經建立的安全研究機構。

聯合國秘書長安東尼奧·古特雷斯在開幕會上表示,距離布萊奇利公園會議已過去七個月,我們看到了改變生活的科技進步,以及生命受到威脅的新風險——從虛假信息到大規模監控,再到致命的自主武器的可能性。

聯合國秘書長在一段視頻中表示,AI 需要普遍的限制措施和定期對話。「我們不能盲目地走向一個由少數人控制 AI 力量的反烏托邦未來,或者更糟的是,由人類無法理解的算法控制力量」。

簽署安全承諾的16家 AI 公司還包括亞馬遜、微軟、三星、IBM、xAI、法國的 Mistral AI、中國的智譜科技,以及阿拉伯聯合酋長國的 G42。他們承諾通過負責任的治理和公開透明度確保其最先進的 AI 模型的安全性。

這不是 AI 公司第一次作出聽起來很高尚的自願安全承諾。去年,亞馬遜、谷歌、Meta 和微軟等公司是其中一組公司,他們在白宮斡旋下簽署了確保產品在發布之前安全的自願保護措施。

首爾會議正值一些公司推出其最新版本的 AI 模型。安全承諾包括發布框架,說明這些公司如何衡量其模型的風險。在極端情況下,如果風險嚴重且「無法容忍」,AI 公司將不得不啟動停止發展或部署他們的模型和系統的開關,如果他們無法減輕風險。

從去年英國會議以來,AI 行業「越來越關注最迫切的問題,包括錯誤和虛假信息、數據安全性、偏見以及讓人類置身事外」,其中一家簽署該協議的 AI 公司 Cohere 的 CEO 艾登·戈麥斯表示。「我們必須繼續考慮所有可能的風險,同時將我們的努力優先放在那些如果不得到妥善解決可能會產生問題的風險上」。

世界各國政府已經在快速發展的 AI 技術中努力建立規範,並且準備改變日常生活的各個方面,從教育和職場到版權和隱私權。擔心 AI 的進步可能會消滅就業機會、傳播虛假信息,或被用來創造新的生物武器。

本周的會議只是眾多 AI 治理工作之一。聯合國大會已經通過了有關安全使用 AI 系統的第一項決議,而美國和中國最近舉行了首次高層對話,歐盟即將於今年晚些時候生效的世界第一的《AI 法》。__

此報導由倫敦的 Chan 貢獻。美聯社記者 Edith M. Lederer 從聯合國做出了貢獻。

Related Articles

Back to top button Back to top button