馬庫斯談論人工智慧

人工智慧(圖片取自於巨匠電腦)

如果我們不加強監管,中國可能在AGI競賽中擊敗西方 監管並不總是抑制創新

加里·馬庫斯 2023年4月25日

圖片來源 @lathropa 當前的普遍看法似乎是,人工智慧的監管會抑制創新,因此應該盡量避免。

但如果這種普遍看法是錯的呢?如果世界正面臨歷史上一個多層次的諷刺局面呢?以下是一些想法,按編號排列,方便大家在評論中精確回應。

監管並不總是對科技有害,例如,有關汽車環境影響的監管推動了電動車的進步;燃油標準的提高也產生了正面影響。1966年美國軍方對固定翼飛機的限制可能激發了直升機的創新,等等。

GPT-5不會帶來通用人工智慧(AGI)。我看到了,Yann LeCun看到了,現在連Sam Altman也看到了。

因此,首先獲得GPT-5不會直接讓中國或美國首先達到AGI,如前提2所述。

真實性是當前系統的主要缺陷之一,正如「幻覺」、奇怪的誹謗指控等所證明的那樣。另一個主要挑戰在於迫使大型語言模型(LLM)始終與(任何)一套道德價值觀保持一致。

神經符號人工智慧(neurosymbolic AI)可能為解決這些問題提供更好的方法,因為它處理的是事實和明確的推理,但神經符號人工智慧目前不流行,發展不足,也未受到風險投資界的強力支持。

然而,目前在西方,法律上並沒有要求AI公司解決真實性或一致性問題。市場壓力(例如在搜索領域的競爭)可能或者不一定足夠。

在美國,尤其是在技術界(強大的)自由主義派別中,對任何實質性監管都有相當大的抵制,例如有人聲稱「監管的全部目的是減緩創新」。(對我來說,這似乎是從「某些監管不利」這個真實陳述過度推導到「所有監管都不利」的錯誤結論。)

中國的領導人基本上可以自由地實施他們喜歡的任何監管制度,並且似乎熱衷於實施強有力的監管要求。

其中一項要求是,對共產黨觀點的強烈一致性(委婉地說);不那麼委婉地說,我們在談論的是審查制度。不遵循黨綱的機器人將被禁止。

這種監管可能迫使中國的技術界解決某種版本的一致性問題,可能最初是通過大量低薪勞動力,但最終會通過投資於神經符號AI來解決。

對這個問題的投資可能會促使中國在AI發展上超越西方。

簡而言之,強制性的LLM審查制度的商業壓力可能促使中國的科技公司在AGI發展上超越西方;更多的監管可能會帶來更多的創新,而對於西方觀察者(包括我自己)而言,這可能是個諷刺的催化劑。

我們在西方如何應對這一切?部分方法是仔細選擇能夠鼓勵創新的適當監管。

我最好的候選措施是?對真實性提出非常高的標準,並對LLM引發的誹謗和有害的錯誤信息傳播施加嚴厲的懲罰。正如大法官戈薩奇最近暗示的那樣,平台不應該因其工具生成的錯誤信息而受到第230條的保護。推動更高準確性的監管可能實際上促進更多的創新。

如果AGI終將出現,我希望它是通過試圖創造一個更好的世界這一高尚行為產生的,而不是審查和宣傳的意外副產品。如果到達正確的目的地需要監管,而不僅僅依賴企業所謂的「負責任AI」承諾,那也無妨。

讓我們不要將創新完全交給運氣。

加里·馬庫斯(@garymarcus),科學家,暢銷書作家,企業家,對當前AI深感擔憂,但希望我們能做得更好。

敬請期待他的全新播客《人類與機器的對抗》,於4月25日上線,您可以在任何播客平台收聽。

感謝閱讀《我們可以信任的AI之路》!免費訂閱以接收新文章。

52 個喜歡 5 次分享

發表留言

使用 WordPress.com 設計專業網站
立即開始使用