第二條法律規定:
機器人必須遵守人類賦予的命令,除非這些命令與第一條法律相抵觸。
但是它對財產一無所知。如果某人擁有的機器人被其他人下了命令怎麼辦?
如果同一人下了矛盾的命令,那麼最後一個將被執行:
移動那個樓上的盒子。等一下,把它放在門廊上。
但是,如果機器人將雜貨帶到外面,又有人說:
嘿,你停下您正在做,並將那些雜貨帶到我的公寓。
它不應該同意這樣做。
所以,人們只是說“ 服從我”。這是否意味著機器人會忽略非所有者的每筆訂單,即使這只是像幫助老太太過馬路那樣的小幫助?機器人必須在陌生人發出的無害命令與造成非人身傷害的命令(例如偷東西,砸汽車等)之間做出區分。
如果一個家庭擁有機器人,他們會說諸如“ 只服從我和我的家人”之類的東西,那麼如果家人之間的命令相抵觸怎麼辦?
它如何正常工作?難道它只是由AI的某些部分來管理,而不是3條規則的根本?
我從沒讀過Asimov,很抱歉,如果在第一本書的第一章中對此做了解釋。我沒有在任何地方討論它。 sub>