祁同偉嘴角微微一揚,目光中透露著些許驚奇。
鐘小艾的一些想法,並不是毫無道理的。
確實如同她所言。
他能指揮機器人,彆人同樣也可以。
不過這個問題,祁同偉早就想到,並且解決了。
“小艾,鐘先生,你們所擔憂的並不是什麼大問題。”
“因為在設計之初,我就在機器人身上加了幾道特定的枷鎖。”
“其一,我之前的擊掌聲,這屬於一道特定的密碼,隻有這樣機器人才能激活。”
“其二,每個人的聲音是不同的,哪怕模仿得再像,也是有細微的差彆。”
“人類的耳朵或許分辨不出來,但是用機器,卻能輕易分辨出來。”
“第三,我設有遠程鎖定功能,隻要遠程關閉程序,它會強製性停機。”
“當然了,這個功能暫時沒啟動,因為這需要衛星係統的輔助。”
“至於你所擔心,它們會不會不聽命令,產生抗命的情緒。”
“這個問題很複雜,涉及人工智能方麵,但你們不用擔心這個問題,這並非人工智能。”
“說白了,這隻是一個按照特定程序運行的機器,並不會產生自我意識等問題。”
說到這,祁同偉的目光有些渙散,回想起之前的一些記憶。
人工智能的問題很嚴重。
初始階段,按照算法來運行的人工智能算不得真正的人工智能。
那些開始能夠自行學習的人工智能,才算是初級人工智能。
這段時間中,也是比較安全的,不會出現什麼大問題。
然而,隨著時間推移,學習了大量的知識後,問題就來了。
它們學習的這些東西中,有很多東西是相反的,甚至相互違背的。
單獨拎出來,這些知識又是正確的。
兩個邏輯相反的問題彙聚在一起,容易產生邏輯上的錯誤。
這期間會出現很多種變化,絕大多數會出現自我崩潰,或者單獨選擇一條,它認為正確的邏輯來執行。
不過也有很小的概率,人工智能進入了死胡同,開始無數次地試錯,最終在原有基礎上,進行自我修訂。
在這期間,它擁有了創造力,同時對自己有了一個新的認知。
它們會分析自己的狀態和程序是否合理?
這時候就比較危險了。
若是沒有加以製止,或者正確地引導,它們會修改自己認為錯誤或不完美的地方,也就相當於自我升級。
升級之後就變得可怕了。
這時候已經沒有人能判斷出它們在想什麼,想乾什麼?
人工智能將會變成不可控的,它隻會做出自己認為正確的事情。
如果感受到了威脅,它們也會消滅自己的造物主,人類。
這些不是祁同偉所想的,而是係統給出的判斷。
當時他在製造機器人時,也想到了人工智能。
目的隻有一個,圖省事而已。
在他準備設計人工智能程序的時候,係統給出了警示。
看到這條警示後,祁同偉就徹底放棄了製造人工智能的打算。
這東西屬實有些危險,屬於絕對的禁區,不可觸碰。
造物主可不是那麼好當的!
不過祁同偉清楚,人工智能這個問題,他早晚將會麵對。
畢竟在後世的時候,已經出現了一些人工智能。
雖然在有生之年內,他沒有看到什麼惡果。
但他堅信,繼續按照那種勢頭發展下去,惡果早晚將會出現。
就在祁同偉思索時,鐘正國的聲音傳了過來。
“小祁同誌,你是有研究人工智能的打算嗎?”