“孟繁岐先生日前為我們展現了一款先進的自然語言處理算法,這無疑為人工智能領域帶來了諸多的便利,顯然是一項巨大的技術突破。它可以在各種序列問題場景中應用,例如文本生成、對話係統、機器翻譯等。”
“儘管t方法帶來了良多益處,可其最後預想的那種通用級彆的智能同樣存在一些潛在的安全威脅問題。其中不少問題都相當嚴肅。”
“例如,信息安全是一個重要的因素。孟繁岐設想的這種辦法可能會被用於生成虛假信息或誤導性內容。這可能會導致真實性受損,給社交媒體、新聞傳播和zz等領域帶來不良的後果。”
“同時,隱私問題也非常值得關注。這種辦法顯然需要基於海量的訓練數據構建,從而在交互對話的時候非常有可能泄漏用戶的敏感和私密信息。”
“此外,道德倫理方麵的問題也不容忽視。它極有可能無法辨彆不道德、有害的建議或內容,從而可能誤導用戶去采取錯誤的行動。”
“並且就業問題顯然也會受到這種智能的影響,那些依賴這種語言處理工作的人工崗位將會受到衝擊,可能導致失業率上升,社會動蕩。”
“最後,我們無從得知這種智能是否會擁有自主的意識和決策邏輯,依賴其能力很可能導致各行業風險激增。”
孟繁岐這幾天縱覽了諸多新聞報道和業內人士的討論,總體來說還是讚揚和吹噓得居多,不過像本吉奧這種提出嚴肅問題的頂級學者和媒體也不在少數。
孟繁岐自己總結下來真真有意義的問題大概就是上麵那些,其他的大都是不切實際的東西,不予考慮。
“這些問題基本上都是比較中肯的,屬於我在一步步開發過程當中確實必須儘量解決的。”
這其實是chatgpt技術路線走到後麵商用、麵對公眾階段的必經之路了,原本的openai也是一步步踩著坑走過來的。
這些問題搞不定,是非常大的麻煩。
當年gpt4訓練完成之後,之所以推遲了半年多之久才發布問世,就是因為有這些問題需要處理確認。
他們需要確保自己的產品不會由於訓練數據的原因,泄露某人的隱私給大眾;不會針對某些問題發表反社會,種族歧視等方麵的言論;也不能夠隨意地給出一些信息和情報,但實際上完全是編造的。
這實在是相當困難的一件事情,即便廣受好評的chatgpt,在這些問題上麵也有諸多的不足。
它給出的很多谘詢、網站、論文甚至學者之類的信息,都是自己胡說八道的。
此前美國還有律師借助chatgpt給客戶打官司,結果給法官的判例文書裡引用的幾個例子全都是chatgpt編造的,害得客戶輸掉了官司。
openai也確實給chatgpt上了諸多的枷鎖,讓它對很多事情不做評論,可用戶總是能夠找到辦法繞過,又或者是催眠它,讓它說出對應的回答。
openai頻頻修正這些漏洞,可民眾們總是有辦法能找到新的。
兩邊鬥智鬥勇,不亦樂乎。
這也是程序測試界的曆史性難題了。
不論你自己做的測試再多,總有用戶能找到一個非常神奇的方式,觸發你完全沒有想過沒有測試過的bug。
有一個非常著名的笑話,可以很好地表達這個現象。
一個測試工程師走進一家酒吧,要了一杯啤酒,一杯咖啡,07杯啤酒,負一杯啤酒,一杯洗腳水,一杯洗潔精,程序均正常工作。
他甚至嘗試了化妝成老板要了500杯啤酒並且不付錢,這個酒吧程序還是正常工作。
結果程序上線之後,一名顧客點了一碗炒飯,程序炸了。
而針對業界和媒體的這些擔憂,孟繁岐總體的策略是比較低調地回應。
秉持著多說多錯的原則,孟繁岐的回應可以說是三步走,每一步都非常簡短,首先感謝大家對這個領域相關問題的督促和關心;其次表達這方麵的內容,很多他也已經想到過了;最後委婉地提醒了大家,即便自己已經有了思路,距離做出雛形成果也得有個大半年的時間。
隻說了四句話。