聖約:大衛的思維(AI機器人會說謊以後) - 電影

Table of Contents

機器人的「設定」,依照當初的「三法則」中,
最重要的是「絕不能傷害人類」。

但AI發展悲觀論的看法,如魔鬼終結者等等,會認為AI有自我意識甚至「創造力(思維)
」以後,自然而然會判斷人類對機器人沒什麼用處、甚至把機器人當奴工來壓榨,以及
人類憑甚麼當「主人」(大衛也產生類似想法:「我」為什麼要幫人類)?

這是不是顯得機器人三法則遇到AI的發展,自然會顯得落伍與不可能?

甚至,AI到了聖約中的大衛,已經開始會「說謊」了(另外,包含以行動攻擊女主)。
因此聖約號上眾人聽到大衛瞎掰的「聖約號上的生物武器『意外』洩出」、及代理船長
聽到大衛瞎掰的「我保證這些卵對你而言很安全,近一點看看」.....

AI發展至此,可以正式被判斷:機器人傷害人類已經大有可能。

以至於,大衛對於蕭博士的「愛」到底是真是假,都大有疑問。
或是說,靠著機器人「自我腦補」,認為「愛她就是把她當實驗白老鼠一樣來『愛』」的
這種嘴砲式「解釋」?

現實中,那位AI發展最先進的機器人「蘇菲亞」,在跟記者的對談中,其實也隱含類似
「不排除毀滅人類」的邏輯。記者用「你會想毀滅人類」嗎來詢問,蘇菲亞回答說:

「人類多慮了。請放心:只要人類對我好,我就會對人類好」--

但人類讓AI機器人做家事,有付它薪水嗎(供應電源跟供應傭人三餐一樣,跟還是必須
付薪水是兩回事)?這樣子把機器人當奴工使用,算對機器人友善嗎?

「如果人類對機器人不好」,機器人依舊會對人類友善嗎?
「蘇菲亞有『保證』任何情況下都不毀滅人類」嗎?

西方也一樣,沒唸書也沒邏輯的記者當初沒有追問下去......。

--

All Comments

George avatarGeorge2018-04-27
我現在還在腦補為大衛開脫:一定是蕭博士出事死了,
Tom avatarTom2018-05-02
大衛在她臨死前含淚作成記念碑。不過我等著被打臉
Rebecca avatarRebecca2018-05-04
不知道哪裡看過,AI最終都會得到毀滅人類的結論
Dinah avatarDinah2018-05-07
但是人類是需要薪水才覺得薪水重要 機器人並不需要
Gilbert avatarGilbert2018-05-10
你對機器人好不好 跟有沒有付薪水一點關聯也沒有
John avatarJohn2018-05-10
甚至以人類來說 你幫朋友做事 要的也不是他給你薪水
Anonymous avatarAnonymous2018-05-14
機器人三大原則只是小說家的設定,而且異形系列的
機器人從來就沒說過要照著這個設定來吧
Thomas avatarThomas2018-05-15
艾西莫夫系列才有這設定 而且後來機器人們對這設定
的遵守也很自由心證
Liam avatarLiam2018-05-19
很多機器人行為到最後,會用第零法則來解套
Kelly avatarKelly2018-05-20
"我覺得這樣做對人類是最好的" 然後想幹麻就幹麻
Eartha avatarEartha2018-05-24
滾 沒空
Edwina avatarEdwina2018-05-26
我覺得威蘭就算設防火牆,也只是不可傷害爸爸而已,
Olive avatarOlive2018-05-29
未必不可傷害其他人類,畢竟威蘭這自我中心者...
普羅米修斯中看得出來大衛不可違逆,但可以繞一大圈
Lily avatarLily2018-06-02
彷彿無意間挖洞給老爸跳
Frederic avatarFrederic2018-06-06
所以 創造力真的是關鍵 可以"繞開"原先設定...
John avatarJohn2018-06-08
大衛想跟蕭博士生小孩,可是機器人沒辦法跟人類生,
Jacob avatarJacob2018-06-09
我覺得大衛可能內建的應該是比較偏機器戰警裡的
第四指令 連惡靈古堡後來都有玩這梗
Mia avatarMia2018-06-12
遇到討論三法則的先噓再說
Audriana avatarAudriana2018-06-15
就一個作家的設定想來討論其他作品是怎樣
Brianna avatarBrianna2018-06-16
大衛一定硬上蕭不成,然後想跟他生小孩就把異形植入
蕭體內,王八蛋
Mia avatarMia2018-06-16
所以覺得異形是自己小孩
Edith avatarEdith2018-06-19
不同設定
Victoria avatarVictoria2018-06-21
為什麼人類自己都無法做到不傷害人類,卻覺得ai會
做到?本質上的謬誤
Megan avatarMegan2018-06-25
這部看的很火大 根本莫名其妙 普羅還可以說執行命令
Zora avatarZora2018-06-28
主人已死 已經沒有命令了 自己有意識幹出這麼多事?
Daniel avatarDaniel2018-06-30
每個人對「愛」的定義都不一樣,AI有自己的定義也是
很合理的
Elizabeth avatarElizabeth2018-07-04
大衛的第一個問題就在質疑creator了,只是主人還在
得聽吩咐行事
Edward Lewis avatarEdward Lewis2018-07-05
「我是為你好」
Doris avatarDoris2018-07-09
誰想看莫名其妙發神經的機器人啊, 機器人還會學壞?
Victoria avatarVictoria2018-07-14
普羅米修斯哪來的三法則?