<mark id="vzsgm"></mark>

  • <track id="vzsgm"><em id="vzsgm"></em></track>

      1. <strong id="vzsgm"></strong>
      2. 人工智能不“智能” | 重新思考數字化之二十一

        胡泳2023-02-10 20:53

        胡泳/文  今天,在相當多的情況下,判斷你是在與人類還是算法進行交互,正在變得越來越困難。決定誰值得信賴,獲取正確的信息,以及閱讀正確的“信任信號”,對人類來說已經足夠困難了——想想你曾經上當受騙的情形。但是當我們開始將我們的信任外包給算法時,我們如何去相信它們的意圖?當算法或機器人代表你作出你不同意的決定時,要是產生了意外后果,應該責怪誰?

        人工智能要想替人類完成很多讓大家放心的事情,有三個技術里程碑需要克服。

        有多少人工,就有多少智能

        在人工智能界,普遍可以聽到一個說法:有多少人工,就有多少智能。

        傳統上,人工智能被娛樂業塑造出一個錯誤的形象,令我們以為它是在沒有人類輸入的情況下可以自如運作的技術。難怪很多人震驚地發現,谷歌助理依靠人類的幫助來提高自身對語音對話的理解,或者許多科技創業公司雇用人類工人來制作人工智能的功能原型和模仿品。

        與傳統計算不同,人工智能可以在一系列尚未由人預編程的情況下作出決策。人工智能大部分是關于可以通過經驗學習和發展的系統,通常用于執行專業任務,如駕駛、玩策略游戲或者開展投資。這也被稱為認知計算,需要通過輸入大量數據進行培訓。

        現在我們號稱進入了大數據時代,然而數據多并不意味著質量高,沒有標注的數據可用性非常低。數據標注是重復性的工作,但它是大多數人工智能應用的起點。人工智能打著更好地把人從重復性的工作中解放出來的旗號,但現在存在一個悖論:要先通過人類的大量重復性工作才能讓機器實現智能。

        機器學習需要喂給機器大量的數據,而這些數據大部分是需要人工標注的,這在機器學習當中叫做“監督學習”(supervised learning),即根據輸入-輸出的樣本對子,學習一個將輸入映射到輸出的函數或模式,并依此模式推測新的實例。

        舉例來說,要寫一個機器學習算法,讓它能夠在網上幫我找到符合我口味的衣服,就需要訓練一個能識別某種服裝的程序。首先需要的是數據,因為必須給機器學習算法標注一些樣本。訓練者先搜集很多圖片,然后把需要的標出正例。比如把所有襯衣圖片標注出來,其他未被標注襯衣的,就是負例。機器會通過這些樣本的標注,知道哪些是襯衣,哪些不是襯衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,讓程序識別淺色的襯衣,就要進一步把淺色襯衣的圖片再標注出來,這樣機器就會知道那些淺色的襯衣是主人更想要的。這樣的條件可以不斷趨向復雜,例如讓機器識別帶條紋的淺色襯衣,而所有這些對于數據的進一步處理,都需要人工來解決。

        人的標注工作完成之后,就可以訓練機器學習算法,讓它不斷去看圖片,并對所看過的圖片加以總結。然后它自己總結出一個算法框架,知道大概往哪個方向學習。機器學習的目標就是利用人們輸入的數據,讓自身的錯誤識別率達到最低。這個目標達成之后,機器就學成出師,可以為人工作了。

        盡管數據標注一類的工作會逐漸為人工智能所接手,但放眼未來,人工智能將始終需要人類的投入和專業知識,從而以符合道德、負責和安全的方式充分發揮其潛力。例如,在社交媒體中,需要人類對算法的極端化予以糾正;在醫學上,人類和機器的共同努力將產生比任何一方單獨所能實現的更大效果;在自動駕駛等領域,人工智能的優越性是訓練的結果,然而一旦發生了人工智能未經訓練而不得不處理的事情,由人工智能驅動的優勢就會被抹去。當這種情況發生時,人工智能的處理能力必須讓位于人類的創造力和適應能力。

        所以,人工智能必須處理好人工與智能的關系。最終,只要有新的應用讓人工智能學習,有新的任務讓它掌握,人工智能就始終需要人類的投入。

        學習如何學習 

        “智能”這一術語的使用常常導致人們對AI的能力和擬人化風險的誤解(這里的擬人化,是指將人類特征和行為分配給非人類事物)。今天可用的大多數AI技術都是根據特定目標學習或優化其活動,因此只能按照所傳授的內容進行操作。其能力的大小,反映了培訓的數據及培訓的質量,以及AI流程的設計情況。通常,仍會需要人工處理異常情況。

        這意味著AI目前的形式很狹窄,只能專門用于特定的應用程序,它所遵循的流程和程序是不可遷移的。Google DeepMind的AI應用程序AlphaGo專攻圍棋,它和它的后繼版本使用蒙特卡洛樹形搜索算法,根據之前通過機器學習獲得的知識,特別是通過人工神經網絡(一種深度學習方法)的廣泛訓練,從人類和計算機棋譜中找到自己的棋步。這個神經網絡提高了樹狀搜索的強度,從而在下一次迭代中產生更強的棋步選擇。從2015年到2017年,AlphaGo擊敗數位頂尖圍棋人類選手,先后被韓、中圍棋協會授予職業九段榮譽,然而它在國際象棋中甚至無法擊敗普通人類玩家。

        隨后,AlphaGo的繼任者AlphaZero做到了舉一反三:它完全依靠自學,只需提供基本的游戲規則,人類和人類生成的數據都不構成其自我學習過程的一部分。在短短幾個小時的自我游戲中,它就達到了人類需要 1500 年才能達到的技能水平。自學成才的AlphaZero對早期競爭版本的AlphaGo取得了100-0的勝利,目前被認為是世界上最好的圍棋選手。同時,除了圍棋,它也會下象棋與國際象棋。

        DeepMind的AI新作Player of Games(PoG)是第一個在完全信息游戲以及不完全信息游戲中都能實現強大性能的AI算法(完全信息游戲如圍棋、象棋等棋盤游戲,不完全信息游戲如撲克等)。這是向能夠在任意環境中學習的真正通用AI算法邁出的重要一步。PoG使用了較少的領域知識,通過自對弈(self-play)、搜索和博弈論推理來實現強大的性能。

        DeepMind為何長期以來一直投資于游戲類的人工智能系統?該實驗室的理念是,游戲雖然缺乏明顯的商業應用,但卻構成對認知和推理能力的獨特的相關挑戰。這使它們成為人工智能進展的有用基準。近幾十年來,游戲已經催生了為計算機視覺、自動駕駛汽車和自然語言處理提供動力的自學的人工智能。

        現實生活中,擁堵地區的路線規劃、合同談判甚至與客戶的互動等任務,都涉及到考慮人們的偏好如何重合和沖突,并達成相應的妥協,就像在游戲中一樣。即使人工智能系統是自利的,它們也可能通過協調、合作和在人群或組織之間的互動而獲益。那么,像PoG這樣能夠推理出他人的目標和動機的系統,可以為致力于成功協作的人工智能鋪平道路,包括處理圍繞信任而產生的問題。

        當人工智能開始變得真正聰明并能夠學習未被教授的行為時,會對人類認知產生什么影響?在這個本質上是加速選擇的過程中,倫理學的作用是什么?

        不知之不知 

        “未知的未知”(Unknown unknown)是前美國國防部長唐納德·拉姆斯菲爾德(Donald Rumsfeld)在2002年2月回應記者提問時的名言。

        2002年,美國以伊拉克政府擁有大殺傷力武器、并支援恐怖份子為由打算與其開戰。同年2月12日,時任國防部部長拉姆斯菲爾德被問及有關的證據時,他解釋道:“據我們所知,有‘已知的已知’,有些事,我們知道我們知道;我們也知道,有‘已知的未知’,也就是說,有些事,我們現在知道我們不知道。但是,同樣存在‘未知的未知’——有些事,我們不知道我們不知道。”

        在人工智能開發當中,同樣存在“已知的未知”和“未知的未知”。“已知的未知”是指模式不能確定正確分類的例子。其解決方案是,在不確定的例子上從人們那里獲得新標簽。例如,如果一個模式不能確定一張照片的主體是否是一只貓,就會要求人去驗證;但如果系統確定的話,就不會要求人去驗證。雖然在這方面還有改進的余地,但令人欣慰的是,模式的置信度與它的表現相關,人們可以認清模式所不知道的東西有哪些。

        另一方面,“未知的未知”是指模式對其答案有信心,但實際上是錯誤的。對人來說,這就產生了一個難題:需要知道人工智能算法何時工作,何時不工作。雖然電影推薦假如不是那么準確可能并不要緊,但一旦一個算法在自動駕駛汽車或醫療應用程序中表現不佳,其結果可能是毀滅性的。

        人工智能系統的內部工作往往不透明,人類很難理解人工智能學習系統如何得出他們的結論。套用拉姆斯菲爾德的形容,這就是典型的“未知的未知”。 所以,人工智能的一個必須克服的技術挑戰是與人類自己相比的理解差距。為了解決這個問題,設計者和觀察者已經討論過在AI系統中需要一定程度的解釋邏輯,以便檢查錯誤并讓人類學習和理解。

        然而,人工智能系統復雜性的挑戰并不容易克服。事實證明,機器“知道”得越多,我們就越不了解它們。用于人工智能的深度學習方法涉及從簡單的構件中創建復雜的、分層的表征,以解決高層次的問題。網絡在層次結構的初始級別學習一些簡單的東西,然后將信息發送到下一個級別,在那里信息被組合成更復雜的東西。這個過程持續進行,每一級都從上一級收到的輸入中建立。

        與此同時,層數越深,優化算法就越難。最終,它們變得如此困難,以至于數據科學家無法解釋它們是如何工作的。在某一點上,用于深度神經網絡的算法以某種方式,奇跡般地產生了準確的結果——但科學家和工程師并不完全了解結果如何產生的。人工智能使機器能夠進行預測,但很難讓計算機解釋它是如何得出結論的。這不僅提出了信任問題,而且還產生了潛在的法律和責任問題。在人工智能獲得全力推進之前,這方面有很多東西需要探索和考慮。

        人機共存,避免圖靈陷阱

        在過去十年或更長時間里,討論人工智能時很少不與人類能力相比較。對許多人來說,隨著人工智能的發展,它對人類產生了存在威脅,不僅僅關乎我們的就業能力,甚至涉及我們的生存本身。

        斯坦福大學學者埃里克·布林約爾松(Erik Brynjolfsson)的研究認為,這種比較是無益的,現實中更有可能看到人類和機器以相互補充的方式一起工作。

        1950年,阿蘭·圖靈(Alan Turing)提出了一個測試機器是否智能的方法:機器能否很好地模仿人類,以至于它對問題的回答與人類無異?從那時起,創造出與人類智能相匹配的智能就或隱或現地成為成千上萬的研究人員、工程師和企業家的目標。類似人類的人工智能(HLAI,human-like artificial intelligence)的好處包括生產力的飆升、休閑的增加等,也許最深刻的是對我們自己思想的更好理解。但并不是所有類型的人工智能都像人一樣——事實上,許多最強大的系統與人類非常不同。

        過度關注開發和部署HLAI會使我們陷入一個陷阱,不妨稱之為“圖靈陷阱”。隨著機器成為人類勞動的更好替代品,工人們失去了經濟和政治上的討價還價能力,變得越來越依賴那些控制技術的人。相反,當人工智能專注于增強人類而不是模仿人類時,人類保留了堅持分享所創造價值的權力。更重要的是,增強型人工智能創造了新的能力以及新的產品和服務,最終產生的價值遠遠超過了單純的模仿型人工智能。雖然這兩種類型的人工智能都能帶來巨大的好處,但目前在技術專家、企業高管和政策制定者中,存在著對模仿型而不是增強型的過度激勵。

        盡管復制人類智能是一個誘人的愿景,但它同時也是個限制性的愿景。畢竟,時至今日,在人工智能可以做的事情上所取得的激動人心的進展,仍然主要局限于一個相對狹窄的領域,即對人類所能做的事情加以自動化。而那些可以被增強的任務的市場則要廣闊得多。例如,今天大量應用中出現的人工智能助手就是很好的例子。

        人工智能助手已變得相當擅長做許多關鍵而又令人難以置信的繁瑣工作。例如,電子郵件過濾器和產品推薦引擎現在在幫助我們選擇我們想要的東西方面相當有效,而流程自動化工具也越來越有能力挑起平凡任務的重擔。在一些領域,記筆記和抄寫是至關重要但又非常費力的工作,同時也吸走了時間和快樂,完全可以交給人工智能助手。通過處理這些較低級別的任務,就能讓人類騰出手來做我們最擅長的事情。換句話說,人工智能在幫助我們更快、更有效地完成工作。

        增強功能也許在醫療保健等領域最有潛力,這些領域的人員短缺是隨處可見的,而且老齡化社會的需求也越來越大。人工智能已經被用來提供人類不可能做到的全天候監控。

        更重要的是,如果我們能夠換個思路轉變我們的心態,人工智能可以釋放出一波創新和生產力的改善,使社會中的所有人受益。

        以酒店業為例,即使我們正處于一個勞動力危機之中,簡單地考慮用機器人或其他形式的技術來填補這些缺口也不是正確的做法。相反,應該利用這個機會重新思考酒店如何做事,以及如何利用技術來處理更多的常規任務,從而釋放出員工來真正為客戶增加價值。

        因此,盡管將自動化視為降低成本的可靠途徑是很誘人的,但企業應該著眼于更大的前景,因為增強型人工智能提供了更大的經濟效益。它所帶來的好處更有可能在社會上廣泛傳播,因為自動化更容易導致裁員和混亂,就像過去引進的許多技術那樣。

        不平等是我們這個時代最緊迫的問題之一,而且有合理的證據表明,技術對社會當中的不平等已經產生了影響。人工智能的目標應該是使獲得最佳服務和機會的機會均等化,而不是使之離我們越來越遠。再也不可以接受的是,技術的所有好處都以犧牲社會其他人的利益為代價涓滴到資本所有者,特別是數字資本的所有者身上。

        事實上,這種人工智能給相對少數人帶來繁榮、同時造成社會其他人權力喪失的過程,就是斯坦福大學研究人員所說的“圖靈陷阱”。雖然我們目前還沒有落入這個陷阱,但重要的是,在我們還有機會的時候,努力在人工智能的發展道路上確保避開它。由于人工智能仍然處于相對早期的階段,現在正是這樣做的時機,并去積極想象一個人類仍然不可或缺的技術未來。

        (作者系北京大學新聞與傳播學院教授)

        版權聲明:本文僅代表作者個人觀點,不代表經濟觀察網立場。
        北京大學新聞與傳播學院教授;經濟觀察報特約專欄作家
        国产成人AV性色在线影院
        <mark id="vzsgm"></mark>

      3. <track id="vzsgm"><em id="vzsgm"></em></track>

          1. <strong id="vzsgm"></strong>