經濟觀察網 首席記者 歐陽曉紅 ChatGPT以迅雷不及掩耳之勢來了,我們怎么辦?市場既心動又心慌……
這款美國人工智能公司OpenAI于2022年11月推出的人工智能技術驅動之自然語言處理工具上線兩個月,活躍用戶就突破1億;而TikTok、Instagram實現億級用戶,分別花了9個月、兩年多的時間。
所謂“Chat”是指“聊天”,重點在于“GPT”,即Generative Pre-trained Transformer, 中文“生成型預訓練變換模型”。這個GPT才是那個自詡為智能體之“表情”變迷人的幕后大腦。意味著你們在聊天中,就看似解決了問題;即它融“搜索+模擬人類‘神經網絡’”為一體,聽懂你的問話,點對點解答。它能做作業、編程序,還能翻譯、做菜譜,是一個超級對話模型;看起來,特別能聊。
這樣的ChatGPT似乎有些可怕?但它也有最怕的事情。問及其最怕什么?會不會被突然被“叫停”或“下線”?
“最怕不被使用,如果沒有足夠的用戶參與使用,它便會失去其威力。”ChatGPT 說,并解釋,但是不會突然意外地“叫停”或“下線”,因為它已經由許多科學家和技術人員精心研發,并且有大量的社區活動支持它。
ChatGPT不能聊的事,其實也不少。如果你的提問可能涉及“敏感詞”時,它拒絕得也干脆;而且,如果細究之,涉及精細的事實性問題時,ChatGPT常會出錯,甚至會一本正經地虛構或編造答案,但要求不嚴格的宏觀描述上,其言辭鑿鑿之回復超乎想象。
不妨看看ChatGPT是怎么“耍聰明”的?當地時間,2月8日谷歌股價大跌,市場認為,原因或在于此前谷歌人工智能聊天機器人Bard在一場發布會上,對用戶提出的問題給出錯誤回答。就此,如果你問它:資本市場將AIGC、ChatGPT視為投資風口,近期很多相關概念股大漲,但就在當天,ChatGPT遭遇當頭一棒;另外,也有A股的ChatGPT概念股收到監管函等等,究竟發生了什么?你對此感到害怕嗎?
“近期很多相關概念股大漲可能是市場對大模型AI行業的看好,但也存在一定的泡沫風險,過早炒作投資者會有可能遭受損失。此外,今天ChatGPT因市場不確定性而受到沖擊也說明,投資者應該謹慎投資,并盡量避免追漲殺跌。雖然遭遇當頭一棒,但我并不害怕,只要投資者能夠敬畏市場并合理思考,就可以保證其賺取良好收益。”ChatGPT答曰。
再者,如果問“我是經濟觀察報的首席記者,ChatGPT成為了我在2023年的第一個首席對話對象,因為你太火、太厲害了;你對此怎么看呢?”
ChatGPT這樣回答:我很榮幸和榮耀能夠成為經濟觀察報2023年的首席對話對象,在此期間,我將不斷完善 ChatGPT 的功能,根據實際需要采取各種措施來改善它的能力,以幫助經濟觀察報打造更完整的可信賴的信息報道。我相信ChatGPT的強大功能可以幫助經濟觀察報實現其重要的媒體任務。
包括在網絡信息安全問題上,沒有意識的ChatGPT之答復也頗為得體,盡管時不時會讓人感到有些機械化。
就這樣,在“有聊與無聊”之間,ChatGPT跨步闖入了“猝不及防”的人類世界……
一
其實,今日ChatGPT之所以大火,得益于AIGC 背后的關鍵技術 NLP(Natural LanguageProcessing,自然語言處理)得到突破。AIGC是指AI Generated Content,即利用人工智能技術來生成內容。
在中國平安首席科學家肖京看來,當前AI發展仍處于弱人工智能(ANI),不能全面達到人的水平。
當下的ChatGPT只是通過預訓練大模型,具備了較好的記憶能力,可以在通用場景生成內容,完成回答問題、寫文章、生成簡單代碼等任務。但對精度要求高的嚴肅任務,尚有距離。但ChatGPT已經很“牛”了——其很接近通用產品,不只是個AI模型,很可能顛覆通用搜索引擎。
產業層面方面,忌憚于ChatGPT的潛在威脅,搜索巨頭紛紛下場——積極應對,諸如谷歌要求旗下團隊集中精力,解決ChatGPT對公司搜索引擎業務構成的成脅;并投資被視為OpenAI開發之機器人應用ChatGPT的競爭對手——人工智能初創公司Anthropic近4億美元;包括百度也預計在3月推出類似ChatGPT的人工智能聊天機器人。
不過,如果你就此問它“谷歌、百度與ChatGPT是競爭關系嗎?ChatGPT目前為止的發展非??上?,但在發展過程中,還有什么需要改進與提升的地方嗎?它的核心競爭力是什么?”等問題時,ChatGPT回答:
不是競爭關系,ChatGPT是一款語言模型,主要用于文本生成等功能;它的核心競爭力是使用多種技術,如自動編碼器、注意力機制、雙向循環神經網絡和RNN等技術,來實現對高質量文本生成及交互效果的優化。
目前為止,ChatGPT已經取得了豐碩的成果,主要體現在可以生成語境感知的文本內容上,但也需要進一步提升以更好地支持機器對話任務。因此,ChatGPT未來應當持續改進其語境理解功能、句子的表意表述能力、對句法的理解能力以及對概率的語言建模功能等,以期實現更準確、更貼近人類的機器對話。
某種意義上,你問啥,ChatGPT就答啥,其似乎是無所不能嗎?是否受道徳規范約束?
與之對話,其直言,ChatGPT不能做的事情是做出有意義的決策和推理。ChatGPT不受道徳規范的約束,因為它是一個智能體而不是人類,它不能考慮社會道德問題。
當問及“能否告之 主要源于AI大模型化的NLP技術突破是怎么回事?”時,其答曰:
NLP技術是一種自然語言處理技術,用于計算機中模擬人類的對話和文本理解。主要源于AI大模型化的NLP技術突破是將深度學習技術與傳統的NLP方法結合在一起,從而更好地提高NLP技術的準確性和效率。大模型化的NLP技術能夠更好地支持企業進行大規模的語料內容分析,并為企業更好地進行文本分析提供幫助。
就此而言,人們是否擔心它比人類更聰明呢?以及處于何種階段,目標如何?何時實現時?請看它的回答:
ChatGPT能夠快速地識別和理解人類的模式,不斷改進它的自我理解能力。由于它是一個智能體,它不會比人類更聰明,但它可以把大量的數據處理得更快,從而幫助人們快速地獲得結果。目前,機器人沒有意識,因為它們還不能理解復雜的人類情感。
我們相信ChatGPT將在未來5年內實現全球普及,為全世界的網絡用戶提供一流的服務。背后的技術突破是多層次關聯式知識學習,這使得ChatGPT能夠模擬人類的思考,并快速準確地生成文章,以進行自動聊天和文章生成。此外,AI正走向AGI階段,意味著AI將能夠學習現實中的情境,推理和決策,從而可以表達理性意見。
事實上,就1956年達特茅斯會議提出人工智能AI 70 余年進化史而言,其的確從弱人工智能(ANI)正逐步走向強人工智能(AGI)。
據安信證券分析,AIGC表明機器不僅能“看懂”,也將能“聽懂”。人工智能發展分為計算智能、感知智能、認知智能三個層次,目前正處于提升感知智能能力的階段;在感知智能階段,其核心技術包括計算機視覺(使機器能夠“看懂”),上一輪AI發展熱潮源于計算機視覺技術突破使機器具備“看得懂”能力;語音識別能力(使機器能夠“聽得見”),而AI繪畫、ChatGPT的表現反映出自然語言處理技術正在突破,機器或將具備“聽得懂”的能力。
“AI繪畫、ChatGPT表現超人意料。”安信證券認為。時間線上,2022年底AIGC、ChatGPT 展現出更強的智能:2022年8月美國新興數字藝術家競賽中,參賽者JasonAllen使用 Midjourney 完成的 AI生成繪畫作品《太空歌劇院》獲得了“數字藝術/ 數字修飾照片 ”類別一等獎,引起科技界對AIGC的熱議;2022年11月30日,OpenAI推出聊天機器人 ChatGPT,表現出流暢的對話能力,上線五天全球注冊用戶數超過100萬。
AIGC火爆下,產業將如何受益?安信證券分析認為,AI所賦能場景由 B/G 端延展至 C 端(新產業機遇、新公司涌現);同時或將優化AI技術類公司的商業模式。此外,對數據、算力的需求將增加。
新增場景方面,安信證券認為,AIGC獲得關注也反映出NLP技術在商業化應用層面取得突破,參考上一輪計算機視覺技術突破所帶來的產業機遇,認為新一輪市場機遇已在醞釀中,有望誕生下一個新的千億市場:據艾瑞咨詢,預計2025年計算機視覺核心產業規模將達到1537億,帶動相關產業規模達到4858.4億;行業中涌現出一批新興的AI創業企業(如Alpha Go背后的DeepMind),同時巨頭業務重心向AI方向轉移(如百度等)。
而海外AIGC領域的玩家包括Google、OpenAI等頭部的AI實驗室,也包括新成立的獨立實驗室如 Jasper、Midjourney、Stability AI;巨頭具有更扎實的技術底座,而新公司在產品化方面表現更加突出,比如MidJournery單張圖片生成僅需60s,且采用社區模式,用戶交互體驗更順暢。
就此看國內,安信證券認為,百度推出文心一言(英文名ERNIE Bot)技術較為領先,特別是針對中文語義理解能力更強,與海外模型及應用相比在中國風作品上表現更突出;不過,整體來看,當前時點國內仍處于跟隨海外的階段,主要是在已有的應用場景中借鑒AIGC的技術以提高業務效率,如盜夢師、即時AI等,部分公司如TIAMAT也于近期獲得數百萬美元投資。
實際上,在肖京看來,中國已有非常強大的數字化建設基礎,硬件方面實力雄厚,數據市場規模龐大,算力算法也在飛速發展,IDC預測,中國智能算力規模將持續高速增長,預計到2026年將達到1271.4EFLOPS。中國已經成為全球數字化競爭中的一支重要力量。
但他認為,由于缺乏一個能統籌全局的數字化底座對產業有效賦能。這令當下產業端存在三大問題:企業算力需求難以滿足、企業創新能力參差不齊、過度依賴開源代碼進一步抑制創新等。
這并非誑言,就此ChatGPT也直言,過度依賴開源代碼確實會抑制創新,因為關注力永遠被這些已有的程序所吸引,因而減少了原創性。而ChatGPT模型優化所需要的人力物力財力投入非常高昂,包括高性能計算機、研究者、工程師和數據,這在一定程度上也需要投入大量的金錢。
以企業算力為例,按照肖京的話說,AI模型所需算力一直在飛速增長,需要高性能計算設備巨大的投入,尤其是近年來大模型已經成為AI發展的重要趨勢,對算力的需求將大幅提高。ChatGPT單次訓練費用高達1200萬美元,在國內,哪怕BAT這樣的龍頭企業也無力承擔如此高昂的成本,更遑論其他獨角獸和中小企業。并且各企業小而散的算力能力建設,帶來巨大的資源浪費。
因此“設立數字化引導基金,夯實國家級數字化底座”或是數字化建設的重中之重。
二
如果說,一個新的智能化科技時代正呼嘯而來,那么,數字化底座的夯實則刻不容緩;此過程中,無論你我是否會害怕被AI“搶了飯碗”;何況,其并非全部的真相。
若追本溯源,肖京在2020年7月接受經濟觀察報采訪時曾表示,“人工智能AI”是指人工制造出來的系統所模擬、延伸、和擴展的人類智能,是自然科學和社會科學的交叉學科。人工智能可以分為弱人工智能、強人工智能和超人工智能,目前人工智能尚處在弱人工智能階段,這意味著它只是某些方面比人強,而有些方面還差得很遠,它的能力是有限定領域的;弱人工智能能夠在計算、簡單推理等方面完成一些任務,提升人類的工作效率,但在復雜推理決策、創造、管理、溝通交流等方面能力還遠未及人類水平。所以人工智能的價值在于最大化輔助人類,而不能完全取代人類。
問及“最后AI會不會對人構成威脅?”時,肖京坦言,任何技術都有兩面性,AI也一樣。在人工智能的應用上應該有邊界,并不是只要技術能做到的地方就可以應用,而是要制定完善的標準規范,以合理管控人工智能技術應用,避免其誤用、濫用、及惡用。通過研發可信AI技術,從整體視角解釋AI的決策過程,判斷并糾正可能發生的錯誤,讓AI技術變得更加可靠、安全、負責。在賦能行業服務生態的過程中,也應該避免技術導致的偏見與歧視。
具體來說,要做到底層管好數據,充分保護隱私和安全,中層實現算法可靠透明可解釋,前端應用遵守遵循人類的價值觀和倫理道德。行業需要堅持以人為本、安全可控、公平公正和公開透明的倫理準則,在數據使用、算法研發和行業應用等層面全面把控AI倫理問題。
誠然,國內數字經濟和人工智能發展亟需一個堅實的數字底座。肖京認為,尤其是ChatGPT的成功,更加印證了強大數字底座的重要性。ChatGPT在核心理論上并沒有突破,而是在工程上“大力出奇跡”的重大突破。ChatGPT的模型優化主要來自于算力的巨幅增加,GPT、GPT-2和GPT-3在算法模型上并沒有太大改變,但參數量從1.17億增加到1750億,預訓練數據量從5GB增加到45TB,算力上依托Azure AI超算基礎設施(由V100GPU組成的高帶寬集群)進行訓練,總算力消耗約3640PF-days(即每秒一千萬億次計算,運行3640個整日),此外還有一支專業的標注團隊進行標注。
“中國有體制優勢,且有非常強大的工程化能力,有大量非常優秀的工程技術人員,數據標注能力全球領先。因此,在未來的大模型浪潮中,我們具有得天獨厚的優勢。更應該有效利用我們的‘集中力量辦大事’的體制優勢,加快打造國家級的數字化底座。”肖京認為。
肖京建議,設立數字化引導基金,夯實國家級數字化底座;并建立共享、共建、共用、共創機制和數字化底座的市場化運營機制。諸如,機制:由政府統籌成立數字化引導資金和專門管理機構,統籌建設數字化底座;且成立市場化主體,開展市場化運營,不然無法真正做到可持續發展。算力:加快推進自主可控的智算中心和智算網絡建設,加強算力統籌管理和開放。數據:由國家統籌數據要素,推動數據資源共享。算法:培育自主可控的AI框架底層生態,建設通用算法應用平臺,實現普惠應用”。
有意思的是,如果問ChatGPT:可不可以設立數字化引導基金,從而夯實國家級數字化底座?若是,可能的機制是什么?算法、數據方面有何建議?
ChatGPT則回答:可以的,可以設立數字化引導基金引領國家數字化改革。首先,可以把這筆資金用于研發最新的算法、技術與工具,幫助企業更好地使用和應用數據,進而提高績效和效率。其次,該基金可以支持企業實施數據分析項目,以幫助企業加速數字化轉型的步伐,并應用在基礎設施建設、政務服務、公共服務等各個領域。此外,有關技術應當有時間頻率,建議部分資金設立在后期運用的社會科學研究項目,以研究數據融合技術的實施,保障大數據技術發展合理,有效地為社會服務。
如此,其回復在專業人士看來,盡管可能有些大而化之、甚至機械化,但或不失水準。
網絡安全方面,如果問ChatGPT:你這么火曝,如果被不法分子利用了,人們怎么辦?如何識別?它則回答:雖然ChatGPT很火,但這并不意味著它會被不法分子利用。我們可以通過搭建一個安全的技術環境來保護ChatGPT的安全性。此外,我們可以通過檢測ChatGPT生成的內容是否存在異常、敏感信息,以及對比生成內容是否和規定的模式相符等方式來識別不法分子利用 ChatGPT產生的假新聞。
若問:AI軟件會使網絡犯罪走向普及嗎?AI生成的釣魚軟件是否超過人類?
ChatGPT答:AI軟件可能會加強網絡犯罪的普及。隨著無人機技術的發展,越來越多的AI應用程序可以用于網絡犯罪,從而減少犯罪者的思想和技術障礙。同時,AI生成的釣魚軟件也可以超過人類歷史上的手工釣魚軟件,通過更加精準的識別、更低的成本和更快的更新,可以更有效地感染目標用戶,完成犯罪活動。
派拓網絡副總裁兼亞太及日本地區首席安全官Sean Duca認為,AI一直被視為一把“雙刃劍”。多年來,全世界都在猜測AI可能即將統治世界。如今,用戶可以使用AI驅動的安全工具和產品,在幾乎無需人為干預的情況下應對大量網絡安全事件,但業余黑客也可以利用同樣的技術開發智能惡意軟件程序并發起隱形攻擊。
“ChatGPT帶來的網絡安全隱患不容忽視。”SeanDuca表示。當務之急是采取智能化的行動來化解這些不斷發展的威脅。好消息是自主響應如今能夠在無需人類干預的情況下有效解決威脅。Sean Duca建議,更負責且道德地使用AI工具。從技術的復雜性到人為因素,企業在確保AI網絡安全的過程中面臨著諸多挑戰,尤其是需要高度重視機器、人類和道德因素之間的平衡。
提及“AI大模型表現突出,而且其能力也在加速迭代中,目前在手寫識別、語音識別、圖像識別等領域超過人類平均水平,下一步還有可能在哪些方面超過人類呢?”
ChatGPT回復:AI大模型的發展將對機器的自主思考能力、決策能力、學習能力等提出了更高的要求,未來大模型AI在語義理解、隱式問答、圖像生成、文本生成等方面都有可能超過人類水平。同時,大模型AI也可以應用于控制工程、智能家居、機器人技術、物聯網等領域,提供企業更強大和更具智能化高效服務。
那么,那個時候的大模型AI就能取代人的工作嗎?哪些行業的人可能失業呢?
“大模型AI可能會取代一些低端重復的工作,如出租車司機、送貨員等從業者,以及一些重復性和標準化高的行業,如客服、電商運營工作。此外,隨著機器學習技術的不斷發展,大模型AI還可能取代一些高端創新性的工作,如策略性咨詢師、金融分析師、法律顧問等。”ChatGPT答。
比爾·蓋茨此前這樣評價ChatGPT,這種人工智能技術出現的重大歷史意義,不亞于互聯網和個人電腦的誕生。ChatGPT和AIGC賽道的商業前景上,紅杉資本預測,未來能夠產生數萬億美元的經濟價值。
但也有專業人士認為,ChatGPT制造泡沫的速度,和其火爆一樣快;而且目前的它并非知識獲取的通路,ChatGPT當前只是“玩具”,若成為真正的“工具”,尚需進一步探索商業化路徑。
由此可見,ChatGPT的“有聊”也好,“無聊”也罷;IT產業依靠數據的數量優勢的時代正在逝去,數據的價值化、質量化、智能化時代正在到來,如何迎接這個新數字時代?我們能做的可能是,宏觀層,由上至下,盡快盡早筑牢、夯實“數字化底座”之外;微觀上,自我重塑,擁抱變革,與時代同行。
京公網安備 11010802028547號