當前位置:首頁 > 今日熱點 > 熱點追蹤 > 正文

    “AI教父”從谷歌離職,警告AI風險:對自己畢生的工作感到后悔-今日最新

    2023-05-04 11:24:01    來源:騰訊科技    

    劃重點

    1被稱為“人工智能教父”的杰弗里·辛頓博士宣布從谷歌離職,并計劃對他長期推崇的這項技術的風險發(fā)出警告。 2辛頓博士解釋了GPT-4比任何同類模型都更強大的原因,并稱他現(xiàn)在認為數(shù)字智能比生物智能更強大,也更危險。 3辛頓博士稱,科技巨頭陷入了一場可能無法阻止的競爭。他最擔心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。 4辛頓博士擔心未來的人工智能技術會對人類生存構成威脅,因為它們經(jīng)常從分析的大量數(shù)據(jù)中學習意想不到的行為,真正的自主武器(比如殺人機器人)將會成為現(xiàn)實。

    騰訊科技訊 5月2日消息,被稱為“人工智能教父”的杰弗里·辛頓博士(Geoffrey Hinton)宣布從谷歌離職。半個世紀以來,杰弗里·辛頓幫助開發(fā)了ChatGPT等聊天機器人的核心技術。現(xiàn)在,他開始擔心該技術會造成嚴重的傷害。


    【資料圖】

    “就算我不做,別人也會做的”

    杰弗里·辛頓是人工智能領域的先驅(qū)。2012年,辛頓博士和他在多倫多大學的兩名研究生開發(fā)的技術,成為了人工智能系統(tǒng)的智力基礎。科技行業(yè)最大的公司認為,人工智能系統(tǒng)是它們未來的關鍵。

    然而,辛頓博士本周正式加入了越來越多的批評人士行列。他們認為,這些公司積極開發(fā)基于生成式人工智能(AIGC)的產(chǎn)品,正在走向危險。這種技術為ChatGPT等流行聊天機器人提供動力。

    辛頓博士說,他已經(jīng)辭去了谷歌的工作。他在谷歌工作了十多年,并成為該領域最受尊敬的專家之一,所以他可以從技術層面解讀人工智能的風險。辛頓博士表示,他現(xiàn)在內(nèi)心有幾分對自己畢生的工作感到后悔。

    “我用常用的借口來安慰自己:就算我不做,別人也會做的,”上周,辛頓博士在多倫多家中的餐廳接受了媒體專訪,那里距離他和學生取得突破的地方只有幾步之遙。

    辛頓博士從人工智能的開拓者向末日預言者的轉變,標志著科技行業(yè)正處于一個不同尋常的時刻,這可能是幾十年來最重要的拐點。行業(yè)領袖認為,新的人工智能系統(tǒng)可能與上世紀90年代初推出的網(wǎng)絡瀏覽器一樣重要,可能會在藥物研究和教育等領域帶來突破。

    然而,令許多業(yè)內(nèi)人士苦惱的是,他們擔心自己正在釋放一些危險的東西。AIGC已經(jīng)可以成為制造錯誤信息的工具。很快,這可能會對就業(yè)構成威脅。科技行業(yè)最大的擔憂者表示,在未來的某個時候,AIGC甚至可能會對人類生存構成威脅。

    辛頓博士說:“很難想象如何才能阻止壞人利用它做壞事。”

    新一代聊天機器人

    舊金山初創(chuàng)公司OpenAI今年3月發(fā)布了新版ChatGPT后,1000多名技術領袖和研究人員簽署了一封公開信,呼吁暫停新系統(tǒng)的開發(fā)六個月,因為人工智能技術“對社會和人類構成了深刻的風險”。

    幾天后,有40年歷史的學術團體人工智能促進協(xié)會的19位在任和前任領導人發(fā)表了他們自己的公開信,警告人工智能的風險。該組織成員包括微軟首席科學官埃里克·霍維茨,而微軟已將OpenAI的技術應用于一系列產(chǎn)品,包括必應搜索引擎。

    常被稱為“人工智能教父”的辛頓博士沒有在這兩封公開信上簽名,他說,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司自己將辭職,并與谷歌及其母公司Alphabet的首席執(zhí)行官桑達爾·皮查伊通了電話。他拒絕公開討論與皮查伊談話的細節(jié)。

    谷歌人工智能業(yè)務的首席科學家杰夫·迪恩在一份聲明中表示:“我們?nèi)匀恢铝τ谝载撠熑蔚膽B(tài)度開發(fā)和部署人工智能技術。我們在不斷學習理解新出現(xiàn)的風險的同時,也在大膽創(chuàng)新?!?/p>

    開發(fā)神經(jīng)網(wǎng)絡獲圖靈獎

    現(xiàn)年75歲的辛頓博士是英國僑民,他一生從事學術工作,其對人工智能的發(fā)展和使用的個人信念推動了整個職業(yè)生涯的發(fā)展。1972年,作為愛丁堡大學的研究生,辛頓博士接受了名為神經(jīng)網(wǎng)絡的想法。神經(jīng)網(wǎng)絡是一種通過分析數(shù)據(jù)來學習技能的數(shù)學系統(tǒng)。當時,很少有研究人員相信這個想法,但這成了他畢生的事業(yè)追求。

    20世紀80年代,辛頓博士成為卡內(nèi)基梅隆大學的計算機科學教授,但他離開了這所大學前往加拿大,因為他說自己不愿接受美國國防部的資助。當時,美國的大多數(shù)人工智能研究都由國防部資助。辛頓博士強烈反對在戰(zhàn)場上使用人工智能,他稱之為“機器人士兵”。

    2012年,辛頓博士和他在多倫多的兩名學生伊利亞·蘇斯凱弗和亞歷克斯·克里舍夫斯基建立了一個神經(jīng)網(wǎng)絡,它可以分析數(shù)千張照片,并自學識別常見物體,比如花、狗和汽車等。

    谷歌斥資4400萬美元收購了辛頓博士和他的兩個學生創(chuàng)辦的公司。他們的系統(tǒng)催生了越來越強大的技術,包括ChatGPT和谷歌Bard等新型聊天機器人。蘇斯凱弗后來成為OpenAI的首席科學家。2018年,辛頓博士和另外兩位長期合作者因在神經(jīng)網(wǎng)絡方面的工作獲得了圖靈獎,這一獎項通常被稱為“計算界的諾貝爾獎”。

    數(shù)字智能更強大

    大約在同一時間,谷歌、OpenAI和其他公司開始構建從大量數(shù)字文本中學習的神經(jīng)網(wǎng)絡。辛頓博士認為,這是機器理解和生成語言的一種強大方式,但它仍不如人類處理語言的方式。

    去年,隨著谷歌和OpenAI構建了使用大量數(shù)據(jù)的系統(tǒng),他的觀點發(fā)生了變化。他仍然認為這些系統(tǒng)在某些方面不如人類大腦,但他認為它們在其他方面使人類的智慧黯然失色。辛頓博士說:“也許這些系統(tǒng)中發(fā)生的事情實際上比大腦中發(fā)生的事情要好得多?!?/p>

    辛頓博士認為,隨著公司對人工智能系統(tǒng)的改進,它們會變得越來越危險?!翱纯次迥昵昂同F(xiàn)在的情況,”他在談到人工智能技術時說。“它們開似乎接受差異并將其向前傳播,這是非??膳碌摹!?/p>

    辛頓博士表示:“我現(xiàn)在認為,我們正在創(chuàng)造的數(shù)字智能與生物智能截然不同。如果我有1000個數(shù)字代理,它們都是完全相同權重的克隆體,每當一個代理學習如何做某事時,所有代理都會立即學會,因為它們共享權重。而生物智能做不到這一點。因此,相同的數(shù)字代理集合可以獲得比任何單個生物代理多得多的知識。這就是為什么GPT-4比任何同類模型都更強大的原因。”

    辛頓博士在2021年孟買印度理工學院的畢業(yè)典禮上說:“我相信人工智能的快速發(fā)展將以我們尚未完全理解的方式改變社會,并不是所有的影響都是好的。”他指出,人工智能可能會促進醫(yī)學發(fā)展,同時也可能被用于創(chuàng)造致命的自主武器?!拔野l(fā)現(xiàn)這種前景比機器人取代人類的前景更直接,也更可怕,我認為機器人取代人類還有很長的路要走?!?/p>

    人工智能競賽需全球監(jiān)管

    辛頓博士透露,直到去年,谷歌一直是這項技術的“適當管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現(xiàn)在微軟用聊天機器人增強了必應搜索引擎以挑戰(zhàn)谷歌的核心業(yè)務,后者也開始競相部署同樣的技術。

    辛頓博士說,科技巨頭陷入了一場可能無法阻止的競爭。他最擔心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。

    他還擔心人工智能技術最終會顛覆就業(yè)市場。如今,像ChatGPT這樣的聊天機器人往往是對人類工作者能力的補充,但它們也可能取代律師助理、個人助理、翻譯和其他從事機械式重復任務的人。他說:“它們承擔了繁重的工作,但帶走的可能不止這些?!?/p>

    辛頓博士擔心未來的人工智能技術會對人類生存構成威脅,因為它們經(jīng)常從分析的大量數(shù)據(jù)中學習意想不到的行為。他說,這成了一個問題,因為個人和公司不僅允許人工智能系統(tǒng)生成自己的計算機代碼,還允許它們自己運行這些代碼。他擔心有一天真正的自主武器(比如殺人機器人)會成為現(xiàn)實。

    辛頓博士說:“有些人相信,這類機器實際上會變得比人更聰明。但大多數(shù)人認為這太離譜了,我也這么認為。我曾預計,這需要30年、50年甚至更長的時間。顯然,我現(xiàn)在不再這么認為了。”

    包括他的許多學生和同事在內(nèi)的許多其他專家表示,這種威脅屬于假想。但辛頓博士認為,谷歌和微軟以及其他公司之間的競爭將升級為一場全球競爭,如果沒有某種全球性監(jiān)管,這場競賽是不會停止的。

    但辛頓博士認為這個問題很難解決。他說,與核武器不同的是,我們沒有辦法知道公司或國家是否在秘密開發(fā)這項技術,最大的希望是世界領先的科學家攜手合作?!拔艺J為人們不應該擴大人工智能研發(fā)規(guī)模,直到他們明白自己是否可以控制它。”

    辛頓博士說,當過去人們問他如何才能研發(fā)出具有潛在危險的技術時,他會用領導美國制造原子彈的羅伯特·奧本海默的話來解釋:“當你看到某種技術上令人興奮的東西時,你就會去做?!钡F(xiàn)在不再這么說了。(金鹿)

    關鍵詞:

    上一篇:梅西率阿根廷隊6月來華約戰(zhàn)國足?足協(xié)、國足均不知情,無檔期應戰(zhàn)|全球今頭條
    下一篇:最后一頁

    区久久AAA片69亚洲| 国产成人亚洲精品电影| 自拍偷自拍亚洲精品播放| 亚洲色图校园春色| 久久精品国产亚洲av麻| 亚洲视频人成在线播放| 亚洲精品NV久久久久久久久久| 亚洲第一黄片大全| 亚洲AV无码成人精品区大在线| 在线91精品亚洲网站精品成人| 亚洲av成人一区二区三区在线播放 | 亚洲国产日产无码精品| 亚洲欧洲日韩综合| 91亚洲性爱在线视频| 亚洲最大的黄色网| 亚洲日韩av无码中文| 亚洲精品9999久久久久无码| 亚洲精品av无码喷奶水糖心| 日本中文一区二区三区亚洲| 亚洲人成网站在线观看青青 | 亚洲精品视频在线| 亚洲精品视频观看| 亚洲国产高清视频在线观看| 激情综合亚洲色婷婷五月| 亚洲综合av一区二区三区不卡| 亚洲精品女同中文字幕| 国产亚洲情侣久久精品| 亚洲片国产一区一级在线观看| 亚洲精品无码日韩国产不卡?V| 伊人久久精品亚洲午夜| 亚洲AV无码欧洲AV无码网站| 99ri精品国产亚洲| 亚洲av无码片区一区二区三区| 亚洲日韩久久综合中文字幕| 在线观看亚洲免费| 亚洲日韩精品射精日| 婷婷精品国产亚洲AV麻豆不片| 亚洲日本国产乱码va在线观看| 中文字幕乱码亚洲无线三区| 欧美亚洲国产SUV| 在线观看亚洲成人|