AI真的是洪水猛獸嗎? | |
發布時間:2023-05-11 11:10:52 | 瀏覽次數: | |
首席商業評論 | 寧缺
“人工智能正在變得比人類更聰明,我想要‘吹哨’提醒人們應該認真考慮如何防止人工智能控制人類。”
杰弗里·辛頓在接受外媒采訪時表示,他已于上周辭去在谷歌的工作,并就其長期推廣的AI技術風險發出警告。
杰弗里·辛頓被外界稱為“AI教父”,他對深度學習和神經網絡(模仿人腦的數學模型)的研究幫助奠定了人工智能發展的基礎,并且已在AI領域默默深耕數十年。
AI技術會威脅人類的論調在科技圈已經不是新鮮事了。杰弗里·辛頓表示,當人們過去問他如何能研究有潛在危險的技術時,他會引用“原子彈之父”羅伯特·奧本海默的話:“當你看到某種技術上令人興奮的東西時,你就會去做。”
而現在,他的態度發生轉變,他決心站在狂熱的人工智能風暴中心發出警告的聲音。
事實上,不止杰弗里·辛頓,就連馬斯克、阿爾特曼等一眾大佬都在公開場合表達過對AI未來發展的擔憂。
那么,在不可知的未來,AI真的是洪水猛獸嗎?
圖靈獎得主、“AI教父”杰弗里·辛頓在擔憂什么?
杰弗里·辛頓出生于1947年,是一位英國僑民。
早在2012年,杰弗里·辛頓和他在多倫多大學的兩名研究生Ilya Sutskever與Alex Krishevsky構建的卷積神經網絡在ImageNet大規模視覺識別挑戰賽中以巨大優勢奪冠,將深度學習推向世人眼前。
2013年,杰弗里·辛頓創辦的DNNresearch 公司被谷歌收購,他也因此進入谷歌,并為其效力近十年。2018年,辛頓因在概念和工程領域取得的突破獲圖靈獎。
作為神經網絡技術的先驅、人工智能領域的開創者之一,杰弗里?辛頓為何會對自己奮斗了一輩子的AI事業感到擔憂呢?筆者總結了杰弗里?辛頓對于AI的擔憂,主要集中在以下三個方面。
首先,杰弗里?辛頓擔心人工智能會導致大量失業。在接受《紐約時報》采訪時,杰弗里?辛頓表示,他擔憂AI可能會導致某些工作機會減少。
事實也確實如此,ChatGPT爆火之后,國外已經有游戲公司裁撤一大批原畫師。未來,按照人工智能的發展速度,它們很可能取代律師助理、翻譯、行政助理等其他任何基礎的、重復性的工作。就像杰弗里?辛頓所說,“它消除了苦差事,但帶走的可能遠不止于此。”
其次,杰弗里?辛頓擔心人工智能會創造出一個許多人“無法知道什么是真實的”世界,互聯網將很快被各種虛假信息淹沒。虛假圖像和文字大量充斥在網絡中,而普通人將越來越難分辨這些信息的真假,引發社會的失序。
再者,他還擔心人工智能技術接下來的發展會對人類社會構成威脅,這也是AI技術發展最恐怖的一點。
杰弗里?辛頓承認,在他們過去的研究之中,人工智能常常能從大量數據中學習進而產生出很多讓人意想不到的行為。而且,AI已經開始編寫和運行自己的代碼,“自主殺手機器人”可能會成為現實。
“如果它變得比我們聰明得多,它就會非常擅長操縱,因為它是從我們身上學到的,而且很少有例子證明一個更聰明的東西會被一個更笨的東西控制,”杰弗里?辛頓在采訪中談到,“它知道如何編程,所以它會想出辦法繞過我們對它的限制。它會想出辦法操縱人們做它想要的事情。”
面對人工智能的飛速發展,杰弗里?辛頓表示:“人們不應該快速擴大AI研究的規模,直到足夠了解自己是否能夠控制它。”
AI“遍地開花”,資本“笑臉相迎”
無獨有偶,除了杰弗里?辛頓之外,國際社會上有不少人都認為人工智能會對人類產生不可逆轉的負面影響。
今年三月,1000多名技術領袖和研究人員簽署了一封公開信,呼吁暫停更先進系統的開發6個月,理由是人工智能技術“對社會和人類構成了深刻的風險”。
不久之后,擁有40多年歷史、人工智能領域最權威學術機構之一的人工智能促進協會(AAAI)的19名現任及前任領導人也發布了聯名信,其中包括了微軟現任首席科學家、人工智能研究專家Eric Horvitz。
盡管反對的聲音此起彼伏,但事實上,AI技術已經廣泛運用到我們的日常生活里,比如語音識別、人臉識別、圖片檢索、機器翻譯、自動駕駛等……
資本市場對AI技術也采取肯定態度。以ChatGPT母公司OpenAI為例,近期,OpenAI完成103億美元融資,估值也水漲船高,達到270億-290億美元(約合人民幣2000億元),OpenAI堪稱全球最新成長速度最快的獨角獸。
而且,OpenAI背后的投資人也可謂是大佬云集。本次融資分為兩部分:一是由老虎環球管理、紅杉資本、加州Andreessen Horowitz、紐約Thrive和K2 Global、Founders Fund等參與的財務投資,金額超3億美元;二是由微軟主導的戰略投資,規模據大約100億美元。
放眼國內也是如此。阿里騰訊百度等互聯網大廠都在做發力AI,也有不少創業公司靠著AI概念爆火。比如,百度的“文心一言”、阿里的“通義千問”、王小川的“百川智能”、商湯科技的日日新SenseNova大模型、昆侖萬維的大語言模型“天工3.5”……
據《首席商業評論》不完全統計,國內科大訊飛、萬興科技、藍色光標、中文在線等超300家企業宣布布局AI賽道。
天下熙熙皆為利來,天下攘攘皆為利往。在資本和政策的雙重推動下,人工智能的發展將會不可避免的加速。而潘多拉魔盒一旦被打開,就很難被關閉。技術的發展和人類的開悟也是一樣,是不可逆的。
正如谷歌首席科學家Jeff Dean在一份聲明中回應的那樣,“我們仍然致力于以負責的方式對待人工智能。我們將不斷學習以面對即將出現的風險,同時仍持續大膽創新。”
AI真的是洪水猛獸嗎?
“人工智能覺醒之日,就是人類文明滅亡之時。”
在科技圈,有不少大佬悲觀地斷言,AI會對人類造成毀滅性打擊。已故的物理學家霍金也曾預言,AI可能會成為完全取代人類的新生命體,就連OpenAI的創始人阿爾特曼也在一次采訪中表示,“AI確實可能殺死人類。”
那些曾經存在于《機器姬》、《銀翼殺手》等電影里的情節,如今似乎正在走向現實。
AI于人類而言,真的是洪水猛獸嗎?
首席采訪了一位資深行業人士,他表示“(杰弗里?辛頓)還是擔心潛在影響,擔心機器產生自我意識,失去控制,給人類造成不可預估的負面影響,但如果可控是沒有問題的。”
這已經不是業內人士第一次提到“可控”。上海市人工智能行業協會秘書長鐘俊浩也曾公開對媒體表示,比起失控的技術,更有可能失控的是用技術來為非作歹的‘人’,防止人工智能作惡,關鍵在于控制背后的人。
就連杰弗里?辛頓也曾強調可控的重要性。辛頓稱,谷歌和微軟以及其他大型公司之間的競爭,將很快升級為一場全球性競爭,如果沒有某種監管,這場競爭將不會停止,人工智能發展的速度會遠超我們的想象,并最終走向失控。
AI行業正在由內向外呼吁監管。事實上,ChatGPT出圈后,以大模型為底座的人工智能在全球范圍爆火,各國政府都已經為人工智能技術和應用的發展“系上安全帶”。
今年4月11日,我國網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》,提出21條舉措,用規章制度防范人工智能技術手段濫用行為,促進生成式人工智能技術健康發展和規范應用。
歐盟對人工智能的重點是應對公司用于開發其生成人工智能模型數據集的版權問題。當前許多生成模型拒絕披露其數據源。歐盟修訂后的 AI 法案將要求這些公司公開數據集,這將為 AI 開發人員提供一個合法來源的參考。
美國政府更關注人工智能對隱私、有害信息擴散和經濟的潛在影響。前不久,美國民主黨人提出了一項法案,要求政治廣告披露人工智能的使用情況。
目前,針對人工智能的態度整體上可以分為“暫停半年派”、“擁抱未來派”和“徹底封禁派”三派,但關于共同加強AI監管、預防潛在性危險發生的觀點,社會各界的看法幾乎都是一致的。
事實上,沒有人能斷定AI未來的發展,我們只能謹小慎微地推測AI可能帶來的風險并加以預防。
這點可以參考一下新技術歷史,在人類的歷史長河中,有不少新技術的出現都伴隨著爭議。
比如,核能發現之后,給人類生活帶來了雙重影響。一方面,核能可以用少量的核燃料產生大量的能量、低污染、運輸方便,成本低廉。
另一方面,核電廠的反應器內有大量的放射性物質,如果發生核泄漏事故,會對生態及民眾造成嚴重傷害,并且與其他可再生能源相比,核能并不是一種絕對安全的能源。
AI技術迅猛發展已經是不爭的事實,但AI技術是否會對人類造成毀滅性影響,我想,每個人都有自己的看法。
技術沒有對和錯,錯的只可能是人心。
時間回到2015年,在OpenAI誕生之初,就確立了公司創立的初心是“確保人工智能不會消滅人類。”
當時,馬斯克曾與阿爾特曼討論過一個問題:“為了人類的未來,我們擁有的最美好的事物是什么?”
馬斯克回答:“是人性。” |
|
|
|
上一篇:上百家VC排隊送錢,敲不開創始人“大門” 下一篇:投了新能源的VC,開始拉群“集體懺悔”了 |