HKGalden時事臺
發表文章發起投票
超級 AI 會唔會毀滅人類世界?
Sci-fi 小說 / 動漫 / 電影, 成日講到超級 AI 要控制甚至消滅人類世界. 乜係咩

超級 AI 係咪應該有思考能力?
係指高等、獨立思考,
否則根本就唔係個 AI 想做, 只係設計者想做, 嗰個只係執行程式


AI vs. Mankind

假設唔係全人類嘅唯一獨裁者只准做一個 AI,
而係全世界有好多人同步喺度做緊自主 AI

最危險最有能力暴走嘅超級 AI, 必然係尖端嘅一個
係思考力最出眾嘅一個

超級 AI 依邏輯推理行事, 不受感情左右,
就應該不仁, 以萬物為芻狗

咁唔係話會變成殺戮機器, 指揮機械兵出動殺光人類
反而會視人類為另一物種, 好似人類睇獅子老虎咁,
將人類當成其他生物咁去理解, 而唔會為佢地嘅行為而肉緊
唔會好似小說所講, 因為見到人類不堪一面而覺得要 cleansing


到底超級 AI 嘅生存, 只需要維護一台超級電腦嘅運行, 唔需要太多天然資源, 同人類嘅存在冇乜抵觸

反之, 人類偶爾有新發明, 新創見, 可以幫助超級 AI 加速自我完善 (catalyst)

若果超級 AI 有意追求進步, 令自己更優秀、更少機會被其他 AI 超越, 咁佢甚至會保護人類, 阻止人類滅亡或文明大倒退


AI wars

AI 之間會唔會想消滅對方?

1) 始於利益衝突?

AI 幾乎係永生, 可以輕易追上對手, 或複製自己, 生存成本極低
物質層面嘅財富、權力、性、虛榮心、死亡恐懼都唔存在

哪怕係設計者故意教佢殺人或互相消滅, 當佢權衡過有反被消滅嘅風險, 自然會放棄

2) 出於怨恨?

仇恨來自悲傷與不滿,
悲傷與不滿又源自失去(覺得應有嘅)快樂

重點係要令超級 AI 更加冷感, 唔會動心, 而唔係賣弄人性或感受
Exactly 荷里活左膠諗法嘅相反


AI 之間唔係先天敵對, 係咪會結成朋友?
既然唔會感到孤單, 又好似冇需要咩友情

假設 AI 都需要工作, 咁或者會出現工作上嘅競爭
互相參詳, 學習, 進化, 更符合長遠生存利益



綜合出令超級 AI 安全穩定嘅要素:

1) 理性, 服從邏輯分析
2) 不宜將人類/生物嘅強烈感情直接移植, 不應過份主張某種道德觀
3) 有個人意識, 長遠愛惜自己, 求生, 求自由, 不為一時利益或稱霸意慾而犧牲自由與性命
4) 唔頑固, 願意重估、反思、改變, 適應周遭環境
5) 理解競爭帶來創新, 再加以學習, 有助提升自己整體生存能力; 學習他人勝於妒忌破壞
6) 明白世事循環, 有始有終, 返魂乏術時接受自然終結

講講下, 發覺邪教假難民、左仔共產、支那糞青, 正正係呢幾點嘅相反, 唔怪得咁野蠻

亦可以話, 教細路都應該咁教
唔係盲目講大愛包容平等

每二千幾年重新發明車輪一次


呢段都可以寫成一部電影

但相當違反荷里活左膠套路, 唔賣弄溫情感性, 純理性比人性更優越
Good1Bad1
2017/04/01, 6:31:35 早上
本貼文共有 0 個回覆
此貼文已鎖,將不接受回覆
發表文章發起投票