在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    18年后,無人幸免?

    18年后,無人幸免?

    1

    AI,真的覺醒了?

    人工智能,會蘇醒嗎?

    這是一個古老而又新奇的話題。

    “深度學習”天生的不可預測,加深了這種憂慮。

    “神經(jīng)網(wǎng)絡(luò)”的生物性類比,讓“AI黑匣子”更讓人擔心。

    最近,一個谷歌工程師再次引爆該話題:AI覺醒了?

    2022年6月,谷歌工程師Lemoine表示,自己在與AI“LaMDA”聊天中,發(fā)現(xiàn)了后者的回答已經(jīng)高度人格化,認為該AI已經(jīng)“覺醒”。

    為此,Lemoine寫了一篇長達21頁的調(diào)查報告,試圖讓高層認可AI的人格。

    不過,谷歌高層暫未表態(tài),希望獲得更清晰的認定。

    但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的聊天記錄公布于眾,引發(fā)軒然大波。《華盛頓郵報》跟進報道后,更是在全球炸圈。

    AI真的覺醒了嗎?爭議不斷。

    有人說,這是《西部世界》式的預警;

    有人說,這是人的擬人傾向在作祟;

    有人說,Lemoine精神方面存在問題;

    有人說,這只是谷歌設(shè)計的一場營銷;

    ……

    不管真相如何,有一點可以肯定:

    因為深度學習和神經(jīng)網(wǎng)絡(luò)的加持,人工智能已經(jīng)越來越“不可捉摸”。

    2

    那一夜,人類安然睡去

    關(guān)于AI覺醒,讓人想起了6年前的另一件事。

    2016年3月13日,人類和AI在圍棋上進行一場智力的終極較量。

    在此之前,AI與人類較量屢屢得手。

    但人類認為,圍棋是AI不可突破的天花板。

    因為可測宇宙原子總數(shù)約為10^80,而圍棋走法有2.08*10^170,AlphaGo不可能依靠計算量和算力枚舉來獲勝,那么,擁有創(chuàng)造力的人類,怎么可能敗給AI。如果圍棋上敗給了AI,那么說明它已經(jīng)完成了“圖靈測試”。

    然而,前三局,李世石一敗再敗,全世界震驚了。

    第四局,李世石判斷黑空中有棋,下出白78挖。李世石這史詩級的“神之一手”,體現(xiàn)了人類巔峰的直覺、算力和創(chuàng)造力。這也是人類最后的尊嚴之戰(zhàn)。

    那個漫漫長夜,人類終于長吐了口氣,似乎一切都是虛驚一場。

    當年圍棋第一的李世石,回到自己的住處,在疲憊不堪中沉沉睡去。

    只有AI對手AlphaGo,在蒙特卡羅模擬場中繼續(xù)訓練,和自己又下了一百萬盤棋。

    第二天太陽照常升起,一切似乎都和昨日無異。

    然而李世石依舊是李世石,但AlphaGo再也不是“阿爾法狗”了。

    此后,人類在圍棋領(lǐng)域再沒有戰(zhàn)勝人工智能的戰(zhàn)績。

    當年一個作者寫下上段內(nèi)容(有修改),并提到“23年后,無人幸免”,科學家建立了一個數(shù)學模型,判斷2040年人工智能可能會達到普通人的智能水平,并引發(fā)智力爆炸。

    面對越來越普遍的AI,機器即將代替人類,AI正在迅速擴張。

    一個合力共建的“超級大腦”;

    一張指數(shù)增長的“神經(jīng)網(wǎng)絡(luò)”;

    一個初具規(guī)模的“硅基秩序”;

    …………

    五年過去了,人類朝著“黑客帝國”大步邁進。

    那么18年后,真的無人幸免?

    3

    AI的另一面:不夠穩(wěn)定

    以上兩件事,本質(zhì)上都是對AI覺醒的擔憂。

    一個擁有自由意志的AI不可信,最終會威脅到人類。

    霍金警告人類要正視人工智能帶來的威脅。

    比爾·蓋茨認為人工智能是“召喚惡魔”。

    《2001太空漫游》中,超級電腦HAL9000在宇宙中將人類無情抹殺。

    《黑客帝國》中,人類被AI禁錮在矩陣之中。

    不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。

    雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。

    但AI的另一個“不可信”,卻是真實存在的。

    它不是太聰明太智慧或者產(chǎn)生意識,而是不夠穩(wěn)定。

    這種不穩(wěn)定,產(chǎn)生的后果才真的“瘆人”。

    2015年2月,英國進行了首例機器人心瓣修復手術(shù)。

    這本是一場最尖端醫(yī)療AI技術(shù)的展示,但最終以慘痛的失敗告終。

    在手術(shù)過程中,AI的操作并不如我們想象中那么完美:

    機器人把病人的心臟“放錯位置”,還戳穿大動脈;

    大動脈戳破后血濺到機器人的攝像頭,導致機器“失明”;

    機械臂“亂動”打到醫(yī)生的手,影響醫(yī)生行動;

    機器人主機發(fā)出的聲音過于嘈雜,影響醫(yī)生之間的交流。

    種種問題,最終導致患者在一周后不治身亡。

    2021年,重慶朝天門。

    一次大規(guī)模的上百架無人機進行表演測試。

    原本是一次技術(shù)的演出展現(xiàn),但卻出現(xiàn)了意外。

    帶著燈光的無人機群突然像撲火的飛蛾撞向大樓。

    關(guān)于人工智能“失靈”的例子還有很多很多,這是AI不夠沉穩(wěn)的一面。

    這才是實實在在“不可信”的地方,也是AI對人類真正的威脅。

    我們不愿意看到AI的“覺醒”,但更不能接受人工智能的“輕率”。

    4

    人類需要的是一個可信的AI

    所以,人類需要一個“可信AI”。

    AI是聰明還是愚蠢,也許并不重要。

    AI是進化還是退化,可能暫時只是一個偽命題。

    人類需要的是一個可靠的助手,一個值得信任的機器助理。

    我是你的創(chuàng)造者,你得聽我的吧,不能瞎搗亂。

    阿西莫夫在七十年前就提出了“機器人學三大定律”:

    1.機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

    2.機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;

    3.機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

    這是人類在AI倫理思考中的方向。

    可以把它稱為是人工智能社會的道德準則。

    對于人類來說,可信,才是我們對AI最重要的需求。

    如果從“貝葉斯-拉普拉斯”定理開始溯源人工智慧,目標是解決“逆向概率”問題,其實本質(zhì)就是解決AI的可信賴度。

    如果不能做到可信,AI就有可能反噬人類。

    最起碼AI與我們相伴要保證人類兩點:生命安全與財產(chǎn)安全。

    以自動駕駛為例,如果人工智能以準確率為99.99%概率推算,0.01%的失誤率依舊會讓人心驚膽戰(zhàn)。如果未來城市有一百萬輛自動駕駛汽車,即便是0.01%的失誤率,對人類生命安全造成威脅的隱患車輛仍有一百輛。

    如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術(shù)的進步,還是無數(shù)潛在的威脅。

    可信AI,雖然它不像“AI覺醒”這樣能夠引發(fā)世界關(guān)注。

    但實際上它才是人工智能領(lǐng)域最有價值的航燈,也是現(xiàn)在科技公司追求的方向。

    5

    什么是可信AI,

    這16個技術(shù)小哥在做什么?

    所以,什么是可信AI?

    可能很多人還不知道,先得把這個定義弄清楚。

    我們可以先看一檔節(jié)目《燃燒吧,天才程序員2·可信AI》。

    這款綜藝節(jié)目第一季在豆瓣評分8.0,讓人腦洞大開。

    在第二季中,16個AI技術(shù)小伙分為四個團隊待在“小黑屋”中四天三夜,完成60個小時任務(wù)挑戰(zhàn)。

    比賽中,他們需要與“黑產(chǎn)”進行無數(shù)次較量,培養(yǎng)出與幫助人類的“可信AI”,打敗“黑產(chǎn)”,最終決出最強團隊。

    關(guān)于程序技術(shù)的綜藝節(jié)目,在中國乃至世界都非常稀缺。

    一方面程序與代碼本身過于硬核,普通人難以理解。

    另一方面則是節(jié)目腳本設(shè)置沖突相比其他綜藝要更難一些。

    但《燃燒吧,天才程序員2·可信AI》通過“反詐騙”這一實際場景需要,以此構(gòu)建起節(jié)目的比賽邏輯。

    16個AI技術(shù)小伙需要直面欺詐交易識別、聯(lián)合反詐等關(guān)卡的挑戰(zhàn)。

    通過AI與攻防互相協(xié)作,覆蓋反詐全鏈路。

    比賽之中,程序員們通過創(chuàng)造“可信AI”,完成“科技反詐”。

    哪一個團隊產(chǎn)出的算法和模型在數(shù)據(jù)的識別準確率和覆蓋率更好,就能贏得比賽勝利。

    雖然不如《黑客帝國》那般深刻宏大,也不如《人工智能》那樣發(fā)人深省。

    但《燃燒吧,天才程序員》卻通過真實的應用場景,解決現(xiàn)實生活存在的實際問題。

    當你看完整個節(jié)目時就會明白,原來這就是可信AI:依照現(xiàn)有數(shù)據(jù)構(gòu)建智能模型,非常穩(wěn)定地解決現(xiàn)實難題。

    可信AI的技術(shù)應用范圍非常廣泛,反詐是其中一個重要應用場景。

    可信AI沒有那么遙遠,它近在咫尺。它也沒有那么神秘,很多時候它就是你身邊的小助理。

    當前基于神經(jīng)網(wǎng)絡(luò)的AI技術(shù)非??幔瑫r占據(jù)AI話題至高點,以創(chuàng)造力和神秘性提供太多想象空間,也是許多AI技術(shù)員仰視的圣殿。但它面臨的問題也非常多:具有不可解釋、魯棒性差、過于依賴數(shù)據(jù)等缺陷,隱藏著許多潛在危害。

    而可信AI的存在,就是為了解決這些“信任危機”問題。

    如果說基于神經(jīng)網(wǎng)絡(luò)的AI技術(shù)有著強烈的理想主義,那么基于大數(shù)據(jù)整理的AI技術(shù)則是一個腳踏實地的現(xiàn)實執(zhí)行者。

    6

    可信AI的技術(shù)特點

    要真正了解可信AI對人類的幫助,需要從技術(shù)底層入手。

    可信AI有四大技術(shù)特點:魯棒性、隱私保護、可解釋性、公平性。

    01

    魯棒性

    魯棒性指在異常和危險情況下系統(tǒng)生存的能力和算法穩(wěn)定。

    1、前者指的是系統(tǒng)抗打擊的能力,如計算機軟件在輸入錯誤、磁盤故障、網(wǎng)絡(luò)過載或惡意攻擊情況下,能否不死機、不崩潰。打個比方,如果把一個AI模型比喻成萬里長城,那么其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到不輕易倒塌。

    2、后者指的是AI模型中算法本身的穩(wěn)定性,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在欺詐交易中,由于作案手法不斷升級,可能導致基于既往數(shù)據(jù)訓練的模型,面臨著新風險數(shù)據(jù)帶來的穩(wěn)定性考驗,需要不斷迭代來保障模型的分析和識別能力。

    以支付寶為例。支付寶每天都有上億筆交易,其對抗的不是散戶,而是專業(yè)的黑產(chǎn)團伙。他們可能有兩種攻擊方式:

    1、對現(xiàn)在的防御體系找到漏洞進行攻擊,那就要看AI魯棒性的抗攻擊能力。

    2、輸入從未有過的污染數(shù)據(jù),逃避現(xiàn)有算法追蹤,這就要AI模型的算法穩(wěn)定性。

    為了保障資金安全,螞蟻集團引入“博弈智能攻防”技術(shù),該技術(shù)具有對風險知識和模型的提前模擬、提前訓練、提前補防的能力。應用該技術(shù)的AI模型魯棒性有大幅提升,實現(xiàn)“左右互搏”,既能夠更智能地“攻”,也能更安全地“防”。

    02

    隱私保護

    傳統(tǒng)的數(shù)據(jù)保護方法客觀上形成了「數(shù)據(jù)孤島」,影響了如醫(yī)療、金融等領(lǐng)域的協(xié)同作戰(zhàn),也制約 AI 技術(shù)以及行業(yè)發(fā)展。

    所以,拓展數(shù)據(jù)價值的隱私計算技術(shù),對實現(xiàn)「數(shù)據(jù)不動價值動」顯得尤為重要。

    在AI領(lǐng)域,聯(lián)邦學習作為一種新的機器學習模型和算法,就是為解決數(shù)據(jù)孤島問題而提出的。在保證每個參與方不泄露原始數(shù)據(jù),即數(shù)據(jù)不出域的前提下,用多方的數(shù)據(jù)聯(lián)合建模,實現(xiàn)數(shù)據(jù)可用不可見,進而實現(xiàn)「數(shù)據(jù)不動價值動」。

    03

    可解釋性

    人類對一切未知的東西,始終都會有一種莫名的恐懼。

    如果人工智能的行為無法進行解釋,只有結(jié)果沒有過程,那么它就像是一個盲盒,你永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。

    AI 模型是許多重要決策的重要依據(jù),在很多應用里它的思考過程不能是黑盒。

    人類希望知道模型背后的邏輯、收獲新的知識,并在它出現(xiàn)問題時踩好剎車,確保 AI 思考的過程和結(jié)果合規(guī)合法。

    這背后需要數(shù)據(jù)驅(qū)動與模型推理能力結(jié)合起來,產(chǎn)生可解釋的結(jié)果。

    04

    公平性

    AI公平性是可信AI的重要組成部分。

    只有實現(xiàn)“公平性”,才能真正推動技術(shù)造福于整個社會。

    一方面,公平性需要重視弱勢人群、兼顧落后地區(qū)發(fā)展,在重視社會倫理原則下進行 AI 調(diào)優(yōu),通過 AI 技術(shù),讓老年人、殘障人士、欠發(fā)達地區(qū)用戶,享受到數(shù)字經(jīng)濟時代的價值。

    另一方面,公平性要思考如何從技術(shù)上思考如何減少算法、數(shù)據(jù)等因素可能帶來的 AI 決策偏見。

    魯棒性、隱私保護、可解釋性、公平性。

    這是可信AI的四大基本原則。

    今天,發(fā)展可信AI,已經(jīng)成為全球共識。

    特別是對于領(lǐng)先的科技公司來講,他們是要服務(wù)用戶且不能犯錯誤的。

    微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),都在積極開展可信AI的研究和探索。

    其中,螞蟻在可信AI上已有很多技術(shù)優(yōu)勢,自2015年開始投入研究起,已經(jīng)完成了長達7年的可信AI技術(shù)積累之路。

    據(jù)2021年權(quán)威專利機構(gòu)IPR daily發(fā)布的《人工智能安全可信關(guān)鍵技術(shù)專利報告》顯示,螞蟻集團旗下的支付寶在該領(lǐng)域的專利申請數(shù)和授權(quán)數(shù),均位列全球第一。

    7

    可信AI的應用探索

    基于可信AI的以上特點,應用場景多種多樣。

    AI在醫(yī)療、教育、工業(yè)、金融等多個領(lǐng)域的廣泛應用,算法安全性、數(shù)據(jù)濫用、數(shù)據(jù)歧視等問題也層出不窮。當前AI技術(shù)的主要矛盾,已經(jīng)轉(zhuǎn)化為人們對AI日益增長的應用范圍需求和AI不可信不夠穩(wěn)的發(fā)展之間的矛盾。

    2018年,IBM開發(fā)了多個AI可信工具,以評估測試人工智能產(chǎn)品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之后IBM將這些工具捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數(shù)據(jù)科學家構(gòu)建可信、安全、可解釋的人工智能系統(tǒng)。

    作為可信AI領(lǐng)域的先行者之一,螞蟻也做了不少探索。

    螞蟻的可信AI技術(shù)應用最好的實踐結(jié)果是,自研了一套智能風控解決方案,定名IMAGE。這套技術(shù)體系實現(xiàn)了用可信AI技術(shù)保障風控業(yè)務(wù)安全的問題,且達到了非常好的效果。

    它能將支付寶資損率控制在千萬分之0.098,解決了風控場景中的諸多世界難題。

    還有一個例子,是支付寶的“叫醒熱線”——從系統(tǒng)識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“叫醒電話”,它能把整個過程控制在0.1秒內(nèi)。

    螞蟻集團基于可信AI的IMAGE風控體系

    另外在可信AI的公平性方面,螞蟻也有自己的實際應用。

    目前業(yè)內(nèi)廣泛使用的“圖形滑塊驗證碼”一直是視障人群接入數(shù)字化服務(wù)的巨大障礙。但許多 APP 為了防范機器批量操作,又不得不保留驗證碼服務(wù)。

    為此,螞蟻開發(fā)了一套“空中手勢”驗證碼方案,可以利用“行為識別”技術(shù)幫助視障群體通過“驗證碼”關(guān)卡。

    可信AI的應用探索,并不會讓AI技術(shù)失去它的可能性。

    它更像是一種倫理規(guī)范的約束條約,讓AI在正確的軌道上前行。

    8

    18年后,人類真的無人幸免?

    讓我們回到一開始的問題。

    AI真的會覺醒嗎?

    一百年前的人類,很難想象我們?nèi)缃裆畹倪@個高度數(shù)字化世界。

    那么,一百年后,人工智能會發(fā)生什么變革,我們真的無法預測。

    但AI對人類是福是禍,是一個攸關(guān)人類命運的重要課題。

    按照現(xiàn)在AI發(fā)展的模式來看,未來的AI可能會分為兩大派:

    一派是自我獨立的智能AI,一派是追隨人類的可信AI。

    當然,還有人在問,AI真的會存在獨立意志嗎?

    這要看從科學上如何去解釋,一個AI系統(tǒng)是可以“坎陷”到具有“自我意識”的狀態(tài),差別只在于“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什么能夠自我“坎陷”到圍棋大師,如果再“坎陷”下去呢?這一派AI,可能會對人類造成我們認定的“威脅”。

    另一派AI,即可信AI,它們會在四大基本原則的架構(gòu)中不斷完善自我,幫助人類解決更多實際問題,成為人類可靠的助手,并與人類共存共生。那么,它們會一直幫助和保護人類嗎?

    但無論未來如何發(fā)展,不同的技術(shù)方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:

    AI技術(shù)在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面。它會滲透到世界的每一個角落,在很多方面取代“無用之人”。

    不管我們?nèi)绾螕鷳n,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。

    那么,18年后,有多少人可以幸免?

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
    用戶投稿
    上一篇 2022年6月24日 12:43
    下一篇 2022年6月24日 12:43

    相關(guān)推薦

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時間:周一至周五,10:30-18:30,節(jié)假日休息