出品 | 搜狐科技
編輯 | 梁昌均
9月14日消息,美國當地時間周三,美國多位科技公司大咖齊聚美國國會,參加由美國參議院多數黨領袖查克·舒默(Chuck Schumer)發起的首屆人工智能洞察論壇,討論如何監管快速發展的人工智能問題。
根據公開信息,參與這場論壇的科技大咖包括微軟創始人比爾·蓋茨、特斯拉CEO埃隆·馬斯克、OpenAI首席執行官薩姆·奧特曼、英偉達CEO黃仁勛、微軟CEO薩蒂亞·納德拉、谷歌母公司Alphabet CEO桑德爾·皮查伊、Meta CEO馬克·扎克伯格,以及IBM、Palantir、Anthropic等公司高管和多個工會組織的負責人。
這些企業都在人工智能方面有長期投入和布局,尤其是在今年的大模型浪潮中開啟了軍備競賽,但由此引發的人工智能監管問題備受關注,而美國政府也在尋求如何去更好地監管這項技術的發展。
舒默在會后表示,參會的每個人都贊同政府在監管人工智能方面發揮作用,許多議員也希望在制定適當的法律法規之前能更多了解這項技術。“我們不能像鴕鳥一樣把頭埋在沙子里,因為如果不采取行動,事情會變得更糟。”
在今年生成式AI和大模型快速發展后,馬斯克不斷對AI競賽發出警告。此前他帶頭簽署了一份呼吁暫停高級別人工智能研發的聯合聲明,認為AI存在失控風險。但今年7月,馬斯克成立了自己的AI公司xAI,目的是探索宇宙的真實本質,并強調對人工智能的開發必須有強大的護欄。
他在此次論壇重申到,不受約束的AI會給人類帶來可怕的風險,對世界各地的所有人類都有潛在的危害,AI領域從業者必須積極主動,并及時做出反應。“當出現對公眾構成潛在危險的東西時,希望有一些監督。”
馬斯克透露,在人工智能方面可能會出現某種形式的監管機構。他表示,國會議員和企業代表雙方達成了強烈共識,每位參議員都舉手贊成對人工智能進行監管,美國聯邦AI部門的運作方式可能會與美國聯邦航空管理局(FAA)或美國證券交易委員會(SEC)相似。
對于此次會議,馬斯克也給出了積極評價,他在離會時表示,這是世界上一些最聰明的人之間進行的一次非常文明的討論。“這可能是會被載入史冊的會議,對文明未來非常重要”。
剛剛取消與馬斯克進行籠斗的扎克伯格,則重點提到了封閉與開源的問題。他認為,安全性和可訪問性是人工智能的兩個關鍵,而Meta一直在慎重考慮如何推出這種產品。為此Meta的做法是公開發表研究成果、與學術界合作,并為如何使用人工智能模型制定相關政策。
今年7月,Meta推出了更為強大的開源大模型Llama 2,該模型將免費用于商業用途,被視為有望改變AI大模型市場格局的關鍵舉措。Meta還在尋求開發更大規模的人工智能系統,意圖追趕OpenAI。“如果在未來的某個時候,這些系統能夠接近超級智能的水平,那么將重新考慮對人工智能的監管方法。”扎克伯格表示。
扎克伯格認為,Meta的開源是確保AI得到廣泛應用的一種方式,開源有助于公平競爭,促進人們和企業的創新。但他也強調,Meta不會開源所有的東西。“我們認為封閉模式也很好,但在很多情況下,更開放的方式能創造更多價值。”
借助ChatGPT而爆的OpenAI創始人奧特曼則繼續呼吁對AI進行監管。他表示,OpenAI的目標是確保人工智能造福全人類,幫助提高生產力和創造力,并認為政府必須進行干預,以確保人工智能不會造成經濟或地緣政治災難。
奧特曼此前在參加國會聽證會時表示,有必要對他的公司以及谷歌、微軟等公司正在開發的日益強大的AI技術進行監管。他早前在一篇文章中預計,未來十年內,AI系統有望超過專家水平,在大多數領域展現出與當今最大企業相當的生產能力。
但超級智能技術帶來的潛在利益和風險將比過去任何其他技術更加巨大,必須管理好超級智能的風險,并確保其與社會的順利融合。為此奧特曼等人提出,要互相協調確保超級智能的發展安全可控,建立類似于國際原子能機構的國際機構來監督超級智能的研究和應用,確保其符合安全標準,并限制其部署和安全級別,這一想法也得到微軟等公司支持。
谷歌的皮查伊在發言中表示,AI至關重要,不能不加以監管,但其反對成立新的機構來監管這項技術,與馬斯克、OpenAI、微軟等方面在AI監管方式上產生分歧。他建議,政府可以利用現有機構來監督AI在醫療保健等特定領域的應用。
皮查伊認為,美國政府可以在四個領域對人工智能的發展發揮重要作用,包括制定支持創新的政策,如增加研發投資、通過移民法吸引更多人才;推動政府更多使用人工智能,將人工智能應用于癌癥檢測等重大問題,推進能惠及所有人的勞動力轉型議程。
參與論壇的工會代表,比如美國西部作家協會主席梅雷迪思·斯蒂姆認為人工智能對編劇等生計構成潛在威脅,呼吁國會進行干預,請求他們的作品不能在未經同意或沒有補償的情況下用于訓練大型人工智能系統。
總體來看,雖然這些代表都贊同應該對AI進行監管,但每個人都有各自的側重點,對如何監管尚未達成共識,比如低干涉是否是正確的監管方式,許可授權是否是最合適的監管模式,以及是否應該成立一個新的機構來監管人工智能。IBM CEO阿爾溫德·克里希納就反對很多公司傾向的許可機制,谷歌則反對成立新的監管機構。
多家公司高管還表示,會采取措施解決人工智能帶來的某些潛在危害,例如開發使超級智能安全可控的技術能力,為人工智能生成的內容加水印,并測試系統是否存在安全風險。此次論壇也提到,對深度造假和人工智能水印等內容有必要立即采取行動。
在此次論壇的前一日,英偉達、IBM、Adobe、Palantir、Salesforce、Scale AI、Stability、Cohere等八家公司承諾采取自愿監管措施管理AI技術開發風險,包括在推出前展開安全測試、構建將安全放在首位的系統、為AI生成內容添加數字水印等。在更早前的7月,亞馬遜、谷歌、微軟、Meta、OpenAI、Anthropic、Inflection等七家公司也已作出前述承諾。
目前全球都在尋求在在推動AI發展的基礎上更好地監管人工智能,歐盟此前已通過《人工智能法案》,但也遭到一些反對,認為這會限制區域內企業的競爭力。美國這次論壇也是為了建立起人工智能立法的基本框架,但目前來看,制定合理的法律法規還需要時間。
舒默在會后表示,立法應該在幾個月內而不是幾年后出臺。“如果走得太快,反而可能會毀了一切。歐盟步子邁得太大了,現在他們必須要往后退。我們想強調的是,在時間層面上,不能是幾天或幾周,也不應該是幾年,大概需要幾個月的時間。”