阿西莫夫三定律 還適用於今天的AI嗎
1942年,偉大的科幻作家艾薩克ⷩ🨥🨎륤민Isaac Asimov)在他的短篇小說《轉圈圈》(Runaround)中首次提出了“機器人三定律”。
之後,這些定律因為他的短篇小說集《我,機器人》而廣為流傳。
1. 機器人不得傷害人類,也不得因不作為而使人類受到傷害。
2. 機器人必須服從人類給予它的命令,除非這些命令與第一法則相衝突。
3. 機器人必須保護自己的存在,隻要這種保護不與第一或第二定律相衝突。
機器人三定律的影響是如此之大,它不但構成了阿西莫夫所有機器人科幻小說的組織原則,甚至滲透進了之後幾乎所有的機器人科幻小說,以及所有引用它的書籍、電影、遊戲等流行文化中。
例如,1966年的短篇小說《薩姆的密碼》中的“阿森尼翁機器人的三大法則”,就是對機器人三定律的改編;1999年的電影《2001太空漫遊》中,羅賓ⷥ聥𛉥熦ﯼRobin Williams)飾演的機器人安德魯,通過其頭部的投影儀全息展示了機器人三定律;至於威爾ⷥ斯(Will Smith)主演的《我,機器人》,更是花費整部電影的時間詳細討論了這三大定律。

人們甚至發展出了一門專門研究人與機器人關係的學科——機器人倫理學。這是一門以人類為責任主體,研究如何開發和應用機器人的倫理學。追蹤其源頭,就是阿西莫夫的三定律。
在阿西莫夫生活的年代,人工智能還處於相當早期的階段。論文《神經活動中內在思想的邏輯演算》(A Logical Calculus of Ideas Immanent in Nervous Activity)被視為人工智能學科的奠基石,這篇論文在機器人三定律發表後一年公布;直到1956年,達特茅斯人工智能夏季研討會召開,人工智能作為一門學科,才真正創立。
也就是說,機器人三定律是在一種小說家社會實驗的語境下誕生的。
如果借鑒原教旨主義的概念的話,機器人三定律可以算是機器人倫理學的原教旨主義。今天當然還有眾多阿西莫夫的信徒,但是人工智能的現實環境已與當初大不相同。
這讓人不禁十分好奇,在AI如此火熱的當下,作為原教旨的機器人三定律,還能指導今天人與AI的關係嗎?
作為創作工具的機器人三定律
很難脫離機器人三定律的創作背景討論它的意義。阿西莫夫在1975年接受Sy Bourgin采訪時提到,他創作機器人三定律的動機,是為了擺脫此前科幻小說《弗蘭肯斯坦》式的套路——也就是機器人殺害主人,創造物最終會摧毀其創造者。
因此,從本質上來說,機器人三定律不是一個全麵的道德框架,它們是為故事服務的創作工具。它們被創作出來的目的,就是為了突出一種不確定性、一種衝突的潛在可能,以探討人與AI之間的灰色邊界。
一個有力的證據就是,在阿西莫夫的每一個故事中,機器人三定律都失敗了。阿西莫夫故意模棱兩可地創造了這3個定律,以便製造困境,讓角色和觀眾都麵臨道德困境。
一旦運用到真實世界,這3條被稱為“定律”的東西就會轟然崩塌。例如,巡航導彈、軍用無人機就是違反第一和第三定律的機器人。它們由計算機控製,隻會做它們被編程去做的事情。如果它們被編程去傷害人類,它們就會傷害人類。
從語言學的角度來說,機器人三定律也是無法成立的。因為這3項定律是用英語寫成的,英語是一種自然語言,本質上是模棱兩可的,可以有多種解釋。因此,將機器人三定律編碼成精確的、機器可讀的指令是不切實際的。
來自武漢大學哲學係的克裏斯ⷦ黎克斯(Chris Stokes)更是在他的論文《Why the three laws of robotics do not work》中逐一解釋了為什麽機器人三定律是行不通的:
1. 第一條法則失敗是因為語言上的歧義,以及因為過於複雜的倫理問題,這些問題太複雜,無法簡單地用是或否來回答。
2. 第二定律失敗,因為要求有感知的生物保持奴隸狀態的定律,本質上是不道德的。
3. 第三定律失敗,因為它導致永久的社會分層,這個定律體係中內置了大量的潛在剝削。
正如iRobot的創始人羅德尼ⷥ𘃩 斯(Rodney Brooks)所說:“人們問我,我們的機器人是否遵循阿西莫夫的法則。它們不遵循的原因很簡單——我無法將阿西莫夫的法則植入它們體內!”
iRobot的名字正是來自於阿西莫夫的短篇小說集《I,Robot》。這家公司最出名的兩個產品,是掃地機器人和軍用武裝機器人。
人類的恐懼
2022年湯加火山的爆發曾經引發過一場關於“無夏之年”的恐慌。曆史上,每逢無夏之年,都會引起氣溫驟降,進而導致全球性的災難。
上一個無夏之年發生在1816年,印尼的坦博拉火山爆發。積聚的火山灰讓全球氣溫至少下降了0.4度,氣候反常引起了全球範圍內的饑荒、傷寒和暴亂。
那個“潮濕、不適、連綿降雨”的夏天,迫使新婚的雪萊夫婦滯留在了拜倫在日內瓦湖畔的別墅。為了打發時間,拜倫提出了一場寫作比賽,看誰能寫出最恐怖的故事。雪萊的妻子—瑪麗,在那段時間裏寫出了《弗蘭肯斯坦》。
今天我們記得《弗蘭肯斯坦》當然是因為它是世界上第一部科幻小說。但是請注意,瑪麗參加的可是一個恐怖故事比賽,《弗蘭肯斯坦》有什麽恐怖的呢?
《弗蘭肯斯坦》講述的是生物學家弗蘭肯斯坦,利用人類屍體拚湊出了一個怪物。在被人類排斥的過程中,怪物對弗蘭肯斯坦產生了怨恨,殺死了他的眾多親友。弗蘭肯斯坦最後也因追捕怪物而死。
德國科布倫茨大學的烏爾裏克ⷥ𗴥ឧ 斯(Ulrike Barthelmess)和烏爾裏希ⷧ揧민Ulrich Furbach)認為,《弗蘭肯斯坦》反映出的是人類數千年內心的恐懼,即人類不能像上帝那樣創造生物,任何試圖這麽做的人都會受到懲罰。
另一個例子是16世紀的猶太神話裏魔像(Golem)的傳說。在其中的一個版本裏,拉比利用粘土創造出了魔像,以保護猶太人社區。拉比承諾在每次安息日前關閉魔像以讓他休息。但有一次拉比忘記了,於是魔像變成了一個屠殺社區的怪物。
正如美國電影理論家布萊恩ⷤ㮨Brian Henderson)所說,重要的是講述神話的年代,而不是神話所講述的年代。換句話說,神話當然是虛構的,但是當時的人們,出於何種動機、何種背景,講述這樣的神話,才是真正重要的。
進一步將“創造生物”這個概念擴展開來,這種對“創造物”的恐懼,或許也可以理解成一種對技術的恐懼。希臘神話裏,因為將火傳播於人間,普羅米修斯受到上帝懲罰,每日受老鷹啄食肝髒之苦。在這個故事中,“火”即技術。有一種學術觀點認為,正是因為掌握了火,吃上了熟食,人類才不用耗費大量的能量消化生食,才得以進化出了發達的大腦。與此同時,正是利用了其他動物對火的恐懼,人類才得以在夜間抵禦野獸。
巧合的是,《弗蘭肯斯坦》的副標題恰好是“另一個普羅米修斯的故事”。
在近現代,人類對技術的恐怖更加常見。例如在工業革命時期的英國,人們就對機器改變世界的能力產生了極大的恐懼,開始了一場專門摧毀紡織機的運動。這場運動的後果是如此嚴重,以至於議會立法將拆除機器定為死罪。其中一個被稱為“盧德分子”的團體,甚至和英國軍隊爆發了衝突。在今天,“盧德分子”依然用來描述一切新科技的反對者,他們被稱為“新盧德分子”。
當我們帶著恐懼的視角審視機器人三定律的時候,就可以看到其中充滿了對機器人的嚴防死守,以及背後幽微深長的恐懼心理。
與此同時,它天然將機器人置於了完全服從的奴隸地位(機器人robot源自捷克語robota,意思正是“強迫勞動”)。這會成為一個問題,取決於我們看待機器人的視角。當我們把機器人視為“工具”時,這是合理的;但是當我們把機器人視為有感知的生物、甚至連它們自己也這麽覺得時,那這兩個“種族”就是天然矛盾的,衝突遲早會發生。
三江學院副教授、作家劉勃在描述魏晉南北朝時期,北方遊牧民族和漢民族之間的民族仇殺時是這麽解釋的:“當經濟優勢和政治優勢屬於同一方的時候,通過建立威權體係,勉強可以維持社會的正常運轉,一旦兩個優勢分屬雙方,社會的撕裂也就難以避免。”
這個問題放在今天的世界仍然適用。
而眼下,AI正在做我們認為我們最擅長的所有事情。在某些情況下,它要比人類表現得好得多。在肉眼可見的將來,它也會越來越強大。
現實中的機器人法則
遺憾的是,目前現實世界中並沒有一部通行的法律實行。機器人、AI、自動駕駛這些近似的概念相互混雜,有所交叉又各有不同;針對特定國家、地區製訂的建議、指導方針、道德框架可以說是一鍋大雜燴。
在國家層麵,歐美國家是最積極的立法推動者。
歐盟2024年的AI法案是截至目前最嚴格的監管法案。它禁止將AI用於社會評分目的(利用個人數據個性化推薦就是社會評分的範疇),限製AI在犯罪畫像中的使用,並要求對AI生成的內容進行標簽。對被歸類為對健康、安全或基本權利構成高風險的AI開發者,歐盟AI法案製定了一係列特殊要求。
美國國會還沒有提出全麵的關於AI的法案,但在州一級,矽穀所在的加州最為積極。其州長最近簽署了17項人工智能法案,包括從保護表演者的數字形象到禁止與選舉相關的深度偽造。加拿大正試圖采取與歐盟類似的方法,其執政黨已經提議了《人工智能和數據法案》(AIDA)。
相對於機器人三定律對人工智能的強烈限製,這些法案的共同點在於限製的主體是AI的創造者、使用者,也即人類本身。

與此同時,歐美的監管遭到了大型科技公司的反對。OpenAI CEO Sam Altman就稱,如果監管過於嚴格,OpenAI可能會離開歐洲;紮克伯格也在8月發表了一篇評論,將歐盟的監管方法描述為“複雜且不連貫”,警告這可能會破壞一個“一代人一次”的創新機會,以及利用AI的“經濟增長機會”的機會。
在加拿大,亞馬遜和微軟的高管公開譴責了AIDA,稱其含糊不清且負擔沉重;Meta表示,它可能會推遲在加拿大推出某些人工智能產品。
而在一些非西方國家,態度則截然不同。他們優先考慮的不是監管,而是吸引大型科技公司的投資。印度是最典型的例子,它擁有中美以外最大的互聯網產業。目前,印度政府已投入12億美元用於名為“印度AI”的倡議。其總理莫迪9月在一次圓桌會議上與矽穀CEO們會麵時,他敦促他們“在印度與世界共同開發、共同設計和共同生產”。
目前印度在人工智能領域尚沒有監管。而科技巨頭方麵,OpenAI承諾通過大量投資開發者社區來支持印度AI倡議;亞馬遜已撥出數億美元支持印度人工智能初創企業,並與印度理工學院(IIT)簽署了多年人工智能合作協議;微軟最近也承諾在印度投資30億美元,用於人工智能培訓、雲和人工智能基礎設施。
可以說,科技巨頭在一定層麵上極大地影響了全球政府的政策。他們既是AI的創造者,也是最大的利益相關者。麵對AI這樣一種超越國界的工具,各國可以製定自己的法律,但也必須就一些基本規則達成共識。畢竟,如果牌桌上連規則都沒有的話,這局遊戲是必然要崩盤的。
AI自己的建議
那麽,機器或者AI自己,是如何看待這個問題的?
最後,我們詢問了ChatGPT,該如何完善阿西莫夫的機器人三定律,以下是它的回答:
1.⠥➥𐍤ឨꤸ秚尊重
阿西莫夫的第一定律強調了機器人不能傷害人類,或者因不作為而讓人類受到傷害。為了增強AI對人類自主性和隱私的尊重,可以增加類似“AI必須尊重個體的自主選擇和隱私權”的原則。例如:
新建議:“AI必須尊重人類的自由意誌、隱私權和選擇,避免對人類的決策產生不正當影響。”
2.⠥䚥𑤦졧責任分配
阿西莫夫的定律中沒有明確如何界定AI錯誤行為的責任,導致可能出現責任歸屬不清的問題。在現代社會,AI係統的決策可能涉及複雜的道德和法律層麵。因此,應增加條款明確責任歸屬,避免“責任空白”。
新建議:“在AI行為引發的問題上,應明確AI使用者、開發者、監管機構等多方的責任,並對其行為進行透明化追蹤。”
3.⠥𐍁I的自我意識和自我約束的控製
阿西莫夫的三定律基於機器人沒有自我意識的假設,但隨著AI技術的發展,越來越多的AI係統具備了某種程度的自我學習和適應能力。為了防止AI做出不符合人類利益的決策,建議在AI係統中嵌入“自我約束”的機製。
新建議:“AI係統必須具備自我約束機製,確保其行為始終符合人類的倫理標準,並具有撤銷決策或行為的能力。”
4.⠥道德與倫理框架
隨著AI在社會各個層麵的深入應用,其決策不僅關乎技術層麵的合理性,還涉及倫理問題。例如,AI在醫療、司法等敏感領域的決策需要更加謹慎。因此,可以建議在三定律中明確規定AI係統必須在處理決策時考慮倫理和社會價值觀。
新建議:“AI應始終遵循公認的道德和倫理標準,並在處理複雜決策時優先考慮公平、正義和人類福祉。”
5.⠥飯🧯性與透明度
現代AI係統往往是黑箱式的,難以理解其決策過程。為了增強人類對AI的信任,需要規定AI係統應當具備透明度,確保其行為和決策可以被理解、審查和調整。
新建議:“AI的決策過程必須透明,且可由合適的主體審查和調整,以確保其行為符合社會規範和人類利益。”
6.⠩製AI的目標設定
如果AI的目標設定不當,它可能會采取意外的手段去實現目標,導致對人類的潛在傷害。因此,AI的目標必須在設計階段就加以嚴格限製,確保其目標始終符合人類長遠利益。
新建議:“AI的目標設定必須明確受限於人類福祉和社會整體利益,避免執行可能導致長期負麵後果的目標。”
不用說,上麵這些大詞,和當年阿西莫夫創作的“三定律”一樣,很難以代碼形式“植入”進機器的“芯”中。
也許,正是這種難以完全理解和掌握,才讓AI和機器人更加的讓人們欲罷不能吧。