題:
阿西莫夫的第二定律如何處理不同人的矛盾命令?
Teleporting Goat
2019-07-31 20:31:10 UTC
view on stackexchange narkive permalink

第二條法律規定:

機器人必須遵守​​人類賦予的命令,除非這些命令與第一條法律相抵觸。

但是它對財產一無所知。如果某人擁有的機器人被其他人下了命令怎麼辦?

如果同一人下了矛盾的命令,那麼最後一個將被執行:

移動那個樓上的盒子。等一下,把它放在門廊上。

但是,如果機器人將雜貨帶到外面,又有人說:

嘿,你停下您正在做,並將那些雜貨帶到我的公寓。

它不應該同意這樣做。

所以,人們只是說“ 服從我”。這是否意味著機器人會忽略非所有者的每筆訂單,即使這只是像幫助老太太過馬路那樣的小幫助?機器人必須在陌生人發出的無害命令與造成非人身傷害的命令(例如偷東西,砸汽車等)之間做出區分。

如果一個家庭擁有機器人,他們會說諸如“ 只服從我和我的家人”之類的東西,那麼如果家人之間的命令相抵觸怎麼辦?

它如何正常工作?難道它只是由AI的某些部分來管理,而不是3條規則的根本?

我從沒讀過Asimov,很抱歉,如果在第一本書的第一章中對此做了解釋。我沒有在任何地方討論它。 sub>

這三個定律之間潛在的衝突實際上就是我,機器人花費了大量時間進行研究。我強烈建議您閱讀。
您可能會查看[您能否告訴我的機器人殺死自己的機器人?](https://scifi.stackexchange.com/q/40718/101407)的答案,其中有些人解釋道,較早的訂單比後來的訂單具有更高的潛力訂購。而且,不涉及對所工作的人造成困擾的命令也將具有更大的潛力。
https://en.wikipedia.org/wiki/Little_Lost_Robot以及類似的東西,但是https://en.wikipedia.org/wiki/Liar!_(short_story)-但是,是的。正如Harabeck所說,整個故事的重點是弄清楚法律上的衝突是如何自行解決的
建議您解決最後一行提出的問題。它值得做。
我懷疑向機器人下達命令以違法是非法的。機器人在這件事上沒有意志,也不能被判罪名成立,但是發出非法命令的人可以。這類似於如果父母命令孩子偷東西,他們就不會被判有罪。
@KlausÆ.Mogensen是的,但是製造機器人的公司仍然需要一些東西來掩蓋自己的資產。人們會比不安全的機器人更喜歡安全的機器人。直到你一路走到“我不能讓你這樣做,戴夫”,至少:D
超越宇宙,但阿西莫夫定律實際上並非旨在規範機器人行為,而是為講故事產生衝突。它們本質上是矛盾的,因此它們為阿西莫夫的故事引發了有趣的討論。
-1
@KlausÆ.Mogensen並不是那麼簡單。首先,在任何時候都很難判斷某事是否合法。即使對於人類來說也很難。此外,違反法律拯救人類又如何呢?違反小法律以防止犯罪?(就像開紅燈並破壞某人的財產一樣,以防止兇手逃逸)。禁止機器人觸犯法律是一個壞主意,難以實施。
必填xkcd:https://xkcd.com/1613/
@JaccoAmersfoort是的,但說句公道話,許多人把它們當作“這些是製造安全AI的規則”,這也很好地展示了安全AI問題有多麼不那麼困難。這些故事探討了法律結構的改進,這些改進總是在增加越來越細微的差別和復雜性,這完全與人類的直覺相反,人們常說“別殺了人類,du”。特別是對於“英語措詞的法律”,對於大多數人來說,完全看不到這樣的法律是不夠的。
我在重複其他人說的話,但我會概括一下。在我看來,阿西莫夫的《機器人三定律》的要點是,如果您不對它們進行任何深思熟慮,它們聽起來會很不錯,但實際上卻模棱兩可,以至於幾乎完全沒有用處。
@TeleportingGoat“違反法律以拯救人類”-美國聯邦航空局(FAA)允許機長執行緊急情況下他們認為必要的一切工作。當然,稍後將進行審查,並且可能會發現飛行員的舉動是不合適的。只要他們不疏忽大意,並且沒有做任何太不合適的事情,他們就不會受到違反法規或法律的指控。我希望AI或機器人在緊急情況下拯救人類的行為也會得到類似處理(即使AI本身不被視為法人)。
八 答案:
Seretba
2019-07-31 22:13:05 UTC
view on stackexchange narkive permalink

考慮到,所有機器人故事都是在很長一段時間內發布的短篇小說或中篇小說,因此儘管總體框架是一致的,但有時它們之間並不是100%連貫的。

,正電子大腦對命令,情況和環境的反應通常被描述為在3條定律上由它們誘發的“電位”的結果。正如我們今天所知,目前還沒有任何一種人工智能可以讓機器人決定做某事或不做某事,而更像是一種對通用行動的強迫,這是法律之間的優先考慮以及機器人對周圍環境的理解所驅動的。為了給您提供一個想法,如果我對一個潛在場景的記憶力很強,那麼就可以在其中一個故事中進行一些討論,該場景應該有足夠強的順序,用不同的措詞不斷重複,並增強了有關以下信息的信息:如果不遵循,可能會通過簡單地增加遵守第二法的潛力而潛在地導致違反第一法。這種想法在實踐中被認為是不可能的,但對此進行了討論。

還考慮到設計是如何實施法律的。在最初發生在宇宙中的第一個故事中,定律是僵化的字面絕對值,沒有解釋的空間。隨著時間跨度的發展,它們變得更加靈活,可以由機器人進行解釋,部分原因是美國機器人試圖阻止諸如第三方命令機器人“例如拿起自行車並扔掉它”這樣的場景。到河邊”,則在不存在自行車所有者的情況下取消訂單。

這種靈活性通常被表示為對第一法的重新解釋,其中“損害人類”最初被表示為僅意味著身體上的損害,並且它緩慢地包含了精神損害或痛苦的概念。在實施第一定律的情況下,打破它的目的是要建立足夠的負面潛力,而不是按照機器人對人的思想和社會習慣的理解來建立它,這會帶來有趣的副作用(請閱讀書籍!)。

因此不會將自行車扔到河裡,因為機器人猜測車主會不喜歡它(負勢與第一定律)。

所以,所有這些雜亂無章的內容對您的問題意味著什麼?

  • 如果沒有明顯違反《第一定律》的行為或違反了更強的先前順序。保護您的機器人免受濫用的一種方法是強硬地發出第二次命令,不服從反命令。這將產生兩個正電位,單個反命令將難以克服。
  • 後來的機器人會更注意跟隨命令或採取行動的負面心理影響,這會導致有趣的一面。效果(認真閱讀書籍!)。
  • 無論哪個時期的機器人,如果遇到矛盾的行動方針在所有法律上都具有相同的潛力,或者不可避免地違反第一定律(後來解釋為領先)相對於它負的足夠高的負電位(不一定暗示物理損壞),將進入尋找不可能解決方案的循環並被阻止。
您的最佳答案。需要提醒的是,這三個定律並不是機器人中唯一的編程方法,OP的答案取決於時間和機器人的型號。
隨著時間的推移發展是這個問題答案的關鍵部分。到小說出現時,正電子大腦已經發展了幾代,以至於太空機器人(當時幾乎是唯一的機器人)將不會有定律2衝突而忽略地球人的命令,因為他們不認為他們是完全人類。
-1
值得注意的是,從設計的角度來看,法律並不完美,因為它們是*故事的推動力。*法律是*衝突*而非*解決方案。*
可行的是,可以在激活時命令機器人不成為犯罪手段。這將防止它遵循可能導致盜竊/故意破壞的命令。當然,還有其他可能不希望出現的副作用,這對於以後的故事將是有趣的材料。
一個很好的答案,一位名叫密蘇里州恕我直言的密友,考慮到了先前的命令的存在(由於第一個法律生效,因此關於是否有新命令是否具有優先權一直是不同故事的主題)
usul
2019-08-01 07:25:44 UTC
view on stackexchange narkive permalink

在某些故事中,機器人會根據語言中的緊急程度/重要性和發出訂單的人來區分訂單的重要性。

我想到了NKCampbell在評論中提到的小失落的機器人。前提是主管對機器人非常生氣,並告訴機器人“迷路!”使用極其強大和豐富多彩的語言;機器人通過隱藏其他外觀相同的模型作為響應。據解釋,僅僅命令機器人進行自我展示是行不通的,因為它不會反駁“最有權命令它的人”以最強烈的語言給出的直接命令迷路

“他們是?”加爾文開火了。 “他們是?您知道其中之一在撒謊嗎?在接受最嚴格的禁令說出真相之後,我剛剛採訪的63個機器人之一故意向我撒謊。所顯示的異常異常嚴重,令人恐懼。”

彼得·博格特(Peter Bogert)感到彼此的牙齒變硬了。他說:“一點也不。看!內斯特10號被下令失去自己。 那些命令最有權命令他的人表示緊急。您不能通過緊急程度或較高的命令權來抵消該命令。當然,機器人會嘗試捍衛其命令的執行。

我似乎也想起了其他地方的評論,即機器人專家會更好地知道如何使命令盡可能地堅固,並有可能克服普通人給出的命令

通常,解釋法律如何適用於特定情況是整個挑戰的一部分。如果簡單的模型面臨著涉及沖突的法律,命令或情況的困難困境,則有可能會筋疲力盡。因此,對於所要詢問的問題,應該沒有一個簡單的答案,但是要遵循一些合理的原則。

Little Lost Robot的第三個要素是該機器人具有優越性,這進一步增強了其成功躲避人類尋找它的企圖的慾望。但這遠沒有權威或緊迫性重要。
Mark Olson
2019-07-31 21:03:20 UTC
view on stackexchange narkive permalink

據我所知,他沒有。

重要的是要記住,阿西莫夫(Asimov)是為《驚魂》編寫機器人故事的,他的讀者喜歡邏輯難題,令人驚訝後果和巧妙的頭-在兩個不同的人告訴機器人要做兩個不同的事情的簡單故事中不會出現。

我記得最接近的是“ 機器人AL-76進入Astray”,其中出於某種原因在月球上使用的機器人迷失了後樹林。它發明了一種分解工具,造成了嚴重破壞,並被某人告知要擺脫分解器而忘記建造更多的東西。最終找到機器人後,所有者想知道它是如何製造分解器的,但是它無濟於事-它忘記了一切。

這不是矛盾訂單的情況,但這是一個由未經授權的人訂購。

由於規則的順序非常重要,因此指令的順序也可能很重要。
@marcellothearcane:也許可以,但是請注意,在此答案中提到的情況下,第一個順序並不優先於後面的順序。取而代之的是採取行動(“忘記” =刪除/擦除內存),使以後的訂單無法滿足。儘管大概是在相同的時間和環境下進行的,但它可以從相同的起點重新設計一個分解工具,除非“忘記建造更多”的命令仍然有效,而從字面上看並不是“忘記”,而是“永遠不要建造更多””。
DaaaahWhoosh
2019-07-31 22:10:14 UTC
view on stackexchange narkive permalink

在短篇小說《 逃跑》中,有一個機器人有兩個相互衝突的目標。在這種情況下,這是因為他是根據超強的第三定律建造的,因此無法在服從人類命令和自我保護之間做出決定。

他本質上是試圖同時滿足這兩個條件,使自己安全地奔波遠離危險的目的地,否則行為會變得不穩定而醉酒。

我認為,如果兩個訂單相互衝突,也會發生類似的情況。機器人會盡力滿足這兩個條件,但是如果不可能的話,它可能會陷入困境。

在上面的故事中,當操作人員陷入危險之中時,僵局得以解決,因此援引了第一定律。我認為在大多數情況下,犯罪都會被視為輕微違反《第一法》,因此足夠聰明的機器人會盡量避免這樣做。但是正如蔡司所說,這實際上取決於機器人的型號。

這不是一個更強的第三定律,而是一個弱小的命令。機器人不知道他所下的命令對於人類長遠的生存至關重要。它被發佈為“哦,順便說一句,我們的靜脈血不足,您還能得到更多嗎?”而不是“我們需要補貨,再買一些。”
@Draco18s兩者都是;它是一個昂貴的機器人,因此第三定律更強。
Zeiss Ikon
2019-07-31 21:20:05 UTC
view on stackexchange narkive permalink

這個問題的答案在很大程度上取決於機器人的複雜程度。機器人的故事(大多數是短篇小說,但有些是長篇小說)涵蓋了數百年的內部時間跨度-儘管故事的核心涉及蘇珊·加爾文(Susan Calvin)從她的大學畢業到老年。 >

在早期,機器人還不夠“聰明”,不足以了解明智命令與不明智命令之間的區別。後來,他們達到了一個成熟的水平,他們可以在彼此之間確切地討論什麼構成了人類-並得出結論,他們比任何這些生物學上的都更適合那個名字實體。在這兩者之間的某個地方,第二定律發展到相對於命令給予者某種程度的資格(來自小孩的命令和已知的無能者可以忽略)。正是由於後一種能力,機器人才最終決定,對人類(和人類)傷害的擔憂推翻了他們的所有命令-必須保護人類免受其自身傷害,以至於他們被宣布不具備任何能力。向機器人下達命令。

別忘了以利亞·巴利(Elijah Baley)的故事(四本小說,一部短篇小說),其中還包括機器人,並進一步探討了三定律。
@gidds是的,他們確實做到了-但除了第一個我沒有讀過,它們也不是原始的總體機器人傳奇的一部分。除了《鋼窟》外,所有作品都在“最後一個機器人故事”出版很久之後出版。
僅當您將“機器人故事”限制為您所了解的內容時。以利亞·巴利(Elijah Baley)的小說分別於1954年,1957年,1983年和1985年出版;其他機器人故事包括1974年的“……你對他的心事”,1976年的“百年紀念男人”,1986年的“機器人夢想”,1990年的“卡爾”和“孩子兄弟”以及“機器人視覺”。
Ubik
2019-08-01 21:43:56 UTC
view on stackexchange narkive permalink

在極端情況下,矛盾的命令可能導致機器人永久關閉。這是在 Robots and Empire 中處理的,其中嚴格禁止機器人R. Ernett Second告訴他的主人。無論如何,當他被迫下令這樣做時,他的大腦都將不可逆轉地凍結。

“您願意回答我的問題並接受我的命令嗎,埃內特?”
”“我會的,夫人,如果他們不會被競爭性訂單所抵消。”
”“如果我問您在這個星球上的基地位置,您算作您的主人機構的哪一部分?您會回答嗎?”
“我可能不會這樣做太太我的主人也沒有其他問題。根本沒有任何問題。”
““您是否明白,如果您不回答,我會感到非常失望,我對機器人服務的正確期望將永遠變得遲鈍?”
“我明白,女士,”機器人微弱。 [...]
格拉迪亞(Gladia)用權威的聲音說:“不要告訴我您在這個星球上的基地的位置,以免對Ernett造成傷害。我命令你告訴我。”
機器人似乎僵硬了。他的嘴張開,但沒有聲音。它再次張開,他低聲說:“……英里……”它第三次張開,然後-當嘴巴張開的時候,微光從機器人刺客的眼睛裡溜出來,它們變得平坦而蠟化。一隻已經抬起一點的手臂向下垂。
丹內爾說:“正電子大腦已經凍結了。”

Stephen Collings
2019-08-02 09:33:28 UTC
view on stackexchange narkive permalink

該機器人只有兩個實際選擇。

它可能會發生故障。逃跑,例如機器人醉酒的地方。或者它可以完全關閉。

或者,它可以優先處理一個訂單。關鍵是優先權方案不是由法律本身規定的。這意味著它們對於特定機器人的設計及其預期用途具有靈活性。優先考慮時間,職級,所有權,涉及情況的更複雜方案……

基本上,這是第二定律的變通方法,它發揮了“秩序”的定義。“我得到的命令實際上不是命令,因為它是由罪犯發出的。”但是,如果可以用這種方式對法律進行博弈,也可以像索拉里人一樣,通過以超窄的方式定義“人”來博弈。

突然之間,法律也可能不存在。/ p>

絕對行為規則的概念與聰明的演員之間存在根本的衝突。

Goufalite
2019-08-02 17:45:54 UTC
view on stackexchange narkive permalink

事實上,關於這個問題,有整個阿西莫夫的故事:黎明的機器人

答案很簡單:智力障礙,然後“

發生兩種情況:

  • 首先,機器人有命令要找到以利亞·巴利並將其引導到某個地方,但巴利(一個人)拒絕。這個動作使機器人“臭蟲”了,Baley遵守最初的命令,不會破壞機器人,這可能會很昂貴。當然,這是故事主要情節和主要情節的解釋性情況。主要故事情節是:詹德(Jander)是一個有精神障礙的類人機器人,以利亞必須研究為什麼,但是一般假設是矛盾的順序...



該問答將自動從英語翻譯而來。原始內容可在stackexchange上找到,我們感謝它分發的cc by-sa 4.0許可。
Loading...