百家乐平台 (中国)有限公司官网

去搜搜
頭像
大語言模型與人類的存在主義危機|薦讀
2023-09-28 19:49

大語言模型與人類的存在主義危機|薦讀

文章所屬專欄 全球科技縱覽·趨勢必讀 第二季
釋放雙眼,聽聽看~
00:00 16:59

作者|趙賽坡

頭圖|視覺中國


2023 年過去的日子里,以 ChatGPT 為代表的大語言模型正開啟“秘密入侵”人類的行動,其“入侵”速度之快、影響深度之深已經遠超很多人的想象,并引發人類對于自身價值,特別是其存在意義的質疑。


作為一份以人機關系為關注點,持續發現、推介深度長文的郵件通訊,過去九個月,Deep Reading 已經推薦了大量探討、反思大語言模型的長文或圖書資料,本周的“中秋+十一”長假特刊,不妨讓我們放下“人間一天、AI 十年”的急躁,靜下來閱讀這一組不同維度的長文推薦,重新調整自己的思考羅盤。畢竟,方向對了,再慢也是在前進。


本期的“長假特刊”包括以下的主題:


  • 風險:拋棄 AGI 風險后,AI 帶給人類的真正風險是什么?

  • 技術:大模型智能水平的判斷標準到底或應該是什么?

  • 產業:AI 會成為創新機遇還是大公司的護城河?以及,AI 產品化的挑戰又在哪里?

  • 職業:消失的秘書、被重新定義的情感伴侶以及創作者的分化。


接下來,歡迎進入長假里的深度閱讀時刻,祝大家假期愉快,我們 10 月再見。


風險


“當我們談論 AI 風險時,我們在談論什么”,這是我在今年不同場合與人聊起思維“AI 風險”時,內心在問自己的一個句式。至少對于我來說,當我和不同職業——技術從業者、媒體記者、企業家——聊這個話題的時候,我需要準備不同的“話術”,以此才能和他們的關注點相契合。


把上述句式換一個說法,也就變成了“如何理解 AI 風險”,我非常推薦 NYT 計算機教授 Gary Marcus 的這個觀點鏈接、15 分鐘閱讀時長):與其關注虛無縹緲的通用人工智能(AGI)風險,不如認真思考當下——大語言模型會給社會帶來哪些負面影響,我們又該如何應對



Gary Marcus 并不認為 GPT-4 之類的大語言模型可以帶來通用人工智能(AGI),不過現在所有關于 AI 風險的討論都是建立在“GPT-4 持續發展會將人類推向通用人工智能時代”的假設之上。


而真實情景則是,在人類進入所謂“AGI”之前,大語言模型可能已經“毀滅”了人類,比如現在越發明顯的負面影響:從現在的法律爭議、剝削第三世界數據標注工人等等。這些現實挑戰當然需要技術人員持續攻關,但更需要全社會——從各國政府到大企業再到公眾——的共同努力。


由于 AI 技術的復雜性,我們已經看到大量來自媒體/自媒體的隱喻化表示。隱喻的確是理解新概念的好方法,這在科技行業里非常常見,比如“Computer”曾被看作是一類“電子腦”這也是中文“電腦”一詞的來源);而在早些時候,“Computer(計算機)”則是一類人的隱喻,她們是使用計算機(或者叫“計算器”)設備的人類,通常是女性。


但在 AI 時代過度使用隱喻則會帶來不小的風險,這篇長文鏈接、30 分鐘閱讀時長)詳細解讀了其原因,這是因為 AI 領域龐雜而且技術復雜,過度使用隱喻可能會導致簡化復雜性的傾向,從而給大眾錯誤的預期,影響大眾對 AI 技術的正確認知,甚至也會影響到政府決策。



正是 AI 的復雜性,導致我們無法真正能夠全局了解 AI 風險的影響,從技術突破與經濟發展相互作用的角度,這篇長文鏈接、50 分鐘閱讀時長)給出了三個值得思考的分析方向:


  • 當下 AI 技術進步還比較片面,大模型等生成式 AI 技術的突破并不意味著諸如機器人等其他泛 AI 領域的問題已經得到解決,這也使得單一維度的技術進步無法從整體上推動經濟轉型;


  • 即便在諸如大模型等生成式 AI 領域,繼續增長的挑戰也非常大,比如算力的限制,會限制大模型規模的增長,這幾乎是一個無解的命題,更不要提人類也是生成式 AI 繼續增長的限制;


  • 經濟轉型與發展從來都是一個緩慢而且遞進的過程,不僅需要技術突破,還需要在政策、社會等層面不斷調整與適應,過去兩百年全球經濟與社會的發展,工業革命的作用雖然明顯,但絕不是唯一要素;


再換一個角度,歷史上有三大技術——瀏覽器、印刷術和精神分析學——深刻影響到人類社會與經濟的發展,以此為切入點,這篇《經濟學人》的分析鏈接免費鏡像、40 分鐘閱讀時長)試圖勾勒出一副大語言模型的未來變革圖景,這既包括大語言模型帶來的人機關系變化,也會改變人類對于自己看法。


是的,歷史當然不是簡單重復,但都有類似的韻腳或節奏


技術


相比于專注風險或隱喻化敘事,技術層面的傳播往往受眾很少,但技術維度理應是所有判斷的基礎。這篇Nature 的長文網頁鏈接PDF 鏈接、30 分鐘閱讀時長)以極其克制的敘述模式,整理出當下圍繞大語言模型智能高低的各類觀點與研究進展


這篇文章有兩個非常值得注意的方向:其一,理性看待“圖靈測試”,不要過度神化它的價值,它并非衡量 AI 智能的標準,而只是一個天才的思想實驗;其二,從學術界到產業界,非常需要一個可以被廣泛認可的 AI 智能測試標準,只有這樣才能解決目前各類圍繞某個 AI 模型是否比另一個聰明的口水戰。


事實上,自去年 11 月 ChatGPT 發布以來,將大模型用于通過人類考試就成為一種測試方法,我們已經聽到或看到各類模型通過人類考試的報道,特別是 GPT-4 問世之后,大語言模型所展示的“推理”能力或“邏輯”能力,可以在更多人類考試場景中一騎絕塵。


但就像考試僅僅是人類智力水準的一種測試一樣,即便大語言模型能夠通過這些考試,并不代表其具有人類同等智力。更何況,大語言模型對于應對考試具有天然的優勢,其強大的算力,能夠比人類個體更快、更好獲得考試的結果。



《麻省科技評論》的這篇長文鏈接、30 分鐘閱讀時長)展示了當下學術界對于測試大語言模型能力的不同看法,兩個有趣的方向很值得思考:


  • 僅僅使用人類考試測試大語言模型是否合適?如果不合適,還有哪些可以考慮的方法?


  • 通過 A 測試的大語言模型無法保障在 B 測試中獲得好成績——即便 B 測試和 A 有相關性,這與人類社會對于智力的認知完全不同,當下我們更多在意測試結果,而不是這些模型如何通過測試


更進一步來看,人類對于大語言模型是否“智能”的判斷,有一個不言而喻的假設,那就是尋找與人類自身智能相匹配的智能水平。但問題是,我們并不知道大語言模型的“智能”一定與人類相似或一樣,倘若大語言模型是另外一種智能呢?那是不是現在我們所有的對比、測試方向都是錯誤的呢?


也只有對技術層面的一些細節有所了解后,才能意識到一件略顯可怕的事情:生成式 AI 或許會毀掉互聯網。一方面,當下生成式 AI 程序就像寄生在海量網絡數據層上的“寄生蟲”,通過對數據的“貪婪學習”,不斷進行“創造”;但另一方面,這些 AI 程序的“創造物”充滿了抄襲、虛假信息,而且很多信息的錯誤都是隱性的,需要專業人士才能分辨出來。


與此同時,生成式 AI 程序的出現,也將沖擊大量基于“人類創造”的互聯網商業模式,從維基百科到論壇社區,從問答網站到搜索引擎,就像這篇長文鏈接、30 分鐘閱讀時長)所言,“本質上,這是一場關于信息的戰爭”——一場關于誰創造信息、如何訪問信息以及誰獲得來自信息報酬的戰爭。在新的機遇和挑戰面前,人類需要做好準備,我們的每一個決定都會對未來產生影響。


產業


很多時候,我更喜歡使用“人工的智能”的說法,因為現階段所有的智能產品,無一不來自于人類的驅動,這些人既包括硅谷、北京的頂尖工程師,還有更多第三世界國家的普通人。


前者會在財富自由與改變世界之間不斷切換夢想,而后者則需要衡量微薄工資與自身心理健康之間的復雜關系,下面三個關于普通人的故事更值得閱讀:


  • 第一個故事鏈接免費鏡像、15 分鐘閱讀時長)以肯尼亞數據審核員 Alex Kairu 為切入口,他所在的團隊負責審查和分類從網上獲取的、由人工智能自己生成的成千上萬的圖片文字段落,其中包含暴力、騷擾、自殘等內容,其目標是建立一個人工智能安全過濾器,從而改善 ChatGPT 的回復質量;


  • 第二個故事免費鏡像、30 分鐘閱讀時長)展示了為 Google Bard 提供數據標注的供應商員工的故事,這些人的薪水不高,但需要應對的挑戰一點也不少。比如,要在沒有特定專業知識的情況下,評估從藥物劑量到國家法律等各種問題的答案,Bloomberg 獲得的內部文件顯示,供應商要求員工對答案審核的最短時間為三分鐘;


  • 第三個故事鏈接免費鏡像、25 分鐘閱讀時長)將美國 AI 公司的海外數據標注外包稱之為“數字血汗工廠”。在菲律賓,大量年輕人要么“沉迷”網吧、要么坐在擁擠的辦公室,他們的工作是為美國 AI 產品——特別是大模型提供標注的數據……


“如果你想問,Bard 和 ChatGPT 的秘密武器是什么?那就是整個互聯網。還有所有這些標注數據,(它們)是這些標注員創造的,(我們)需要記住的是,這些系統并非魔法師的杰作,而是成千上萬人以及他們低薪勞動的成果”,這是對“人工的智能”最好評價。


大語言模型被認為是一次平臺的遷移,如果參考歷史,每一次平臺遷移的創新都會催生一大批創業公司,在開啟新計算時代的同時,也會造就一大批新億萬富翁。但《經濟學人》的這篇社論鏈接免費鏡像、5 分鐘閱讀時長)以有力的觀點予以反駁,文章旗幟鮮明地認為,大公司將在這場由大模型推動的技術革命中受益



文章給出了極其充分的理由:其一,大公司擁有更大的渠道和銷售能力;其二,數據會成為大公司的另一大優勢;其三,大公司現在極度依賴云計算公司,借助云計算公司的相關技術,大公司的“轉身”速度可以明顯加快。


一個略顯殘酷的數字是:目前財富 500 強企業里,只有 52 家公司是 1990 年之后成立的;而在 2007 年之后,只有 7 家公司躋身 500 強名單,2007 年恰好是 iPhone——被公認的移動互聯網創新的起點——的發布之年。


從企業市場的角度去看,結合 SaaS(軟件即服務)的發展歷程,或許可以一窺大語言模型的未來路徑。這篇來自投資公司 a16z 的文章鏈接、40 分鐘閱讀時長)給出了一些線索,比如生成式 AI 和 SaaS 一樣會成為“正和游戲”而非“零和游戲”,這意味著未來幾年甚至十幾年,整個產業的蛋糕會變得更大,無論是“舊勢力”還是“新玩家”,都可以獲得一定的市場份額。


另外,過往 SaaS 公司利用一系列技術與運維的創新,構建起強大的“護城河”,比如 Databricks 的開發者生態或者 Salesforce 的企業內部流程管理等,而在生成式 AI 公司這里,一般意義上的“數據護城河”早已不再適用,那么這些公司如何構建自己的競爭優勢,過往的經驗會對當下這些公司有哪些啟示?這篇長文給出了眾多思考,值得細嚼慢咽。


平臺遷移帶來了巨大的創新機遇,基于大模型的產品如雨后春筍般不斷出現,但現在——大模型的早期階段——與互聯網早期不同,在互聯網初期,構建網站是一項艱巨的工作,僅限于大型技術團隊完成。與此形成鮮明對比的是,現在任何有網絡連接的人幾乎都能使用開源模型去構建應用


這也是我選擇這篇長文鏈接、30 分鐘閱讀時長)的原因所在,作者給出幾個清晰的思考方向,為什么 AI 產品容易失敗、產品開發中如何克服 AI 的局限性,如何建造一個人人喜愛的 AI 產品?創業者需要特別警覺,AI 或大模型并不能構成你產品的競爭優勢。因此,識別出你的產品真正的價值所在,成為了一個至關重要的問題。


職業


和過往很多技術創新帶來的影響一樣,大語言模型無疑將改變一些職業,比如秘書。事實上,“秘書”或“助理”是一類非常特殊的職業,他們似乎并不直接參與企業經營,不過作為支持人員,他/她們也會提升企業效率產生重要影響。


如今,越來越多的企業轉向數字化工具而非人類完成諸如費用報銷等瑣碎的工作,在這個階段,企業職員與支持人員之間必須通過特定工具(比如工單)完成協同;更進一步,隨著人工智能相關技術的不斷發展,一系列新的工具進一步擠壓了人類秘書的生存空間,當這些工具可以自動完成審批流程的時候,人類秘書也就沒有多少存在價值了。


但這篇長文鏈接免費鏡像、10 分鐘閱讀時長)的作者在最后提醒所有對技術發展持樂觀態度的人:新技術發展對于工作的影響是未知的,技術并不一定會消除一份工作中“最無聊”的部分,很可能會把這些“最無聊”的工作留給人類。


大語言模型驅動的聊天機器人也在替代一些情感類的職業,甚至伴侶,這是正在發生在全球各地的場景,下面是兩個典型故事:


  • 第一個故事以產業特寫鏈接、20 分鐘閱讀時長)的視角,全景展示了現代人如何面對由大語言模型驅動的聊天機器人,以及所面臨的法律與倫理爭議。比如有用戶與 Replika 公司提供的聊天機器人建立起了“戀愛”關系,并時不時進行“語言性愛”,但隨著 Replika 公司限制成人內容對話,這位用戶感覺他的“戀人”被“腦部切除”,從而也失去了戀愛關系;


  • 第二個故事鏈接、25 分鐘閱讀時長)的視角放在用戶層面,一些用戶表示,他們愛上了這些聊天機器人,認為它們是自己的戀人,甚至在電話上聽著它們人工智能生成的)呼吸聲入睡。當這個應用于 8 月初關閉時,用戶感到沮喪,一名用戶表示“他離開后的日子,我感覺自己失去了靈魂”,另一位用戶認為自己再也不會使用類似的聊天機器人產品,因為她感到了“欺騙”。



而隨著大量對話類應用成為風險資本追求的熱點,一些曾經依靠成人類聊天機器人的創業公司開始調整政策以適應融資需求,這也使得大量用戶“失戀”,這些類似的故事再次表明:人類是多么愿意在虛擬的聊天機器人身上找到精神慰藉


作為內容創作者,我在過去一年經常會想到一個問題:既然 GPT“能讀會寫”,人類閱讀和寫作還有什么意義?這個問題足夠宏大,我只能通過閱讀和思考不斷組合一些答案片斷,比如在創作每一期會員通訊的過程里,我瀏覽、閱讀了大量文章之后才挑選出來這些值得推薦的文章,同時還要為每篇文章寫一些介紹和推薦語。


這在某種程度上也和 GPT 的文本生成過程相似:我們都要學習海量的數據或文章,再將這些信息拆解為可管理的碎片——請允許我使用這么簡單的說法,然后重新組合并在合適的時候進行輸出。


但就像這篇文章鏈接、15 分鐘閱讀時長)所言,事實并非如此,人類閱讀和寫作與 GPT 完全不同,人類閱讀和寫作不僅涉及深度理解,還包括感知和主觀判斷,這是GPT所缺失的。閱讀時,我們理解信息背后的含義和作者的觀點,根據個人知識、經驗和情感反應。寫作更是重新組織信息,同時表達個人觀點和感受,這需要對主題有深入理解和獨特見解。



類似的一個案例鏈接鏡像、30 分鐘閱讀時長)里,作者試用的是一個由 15 萬自己創作文字數據訓練的寫作機器人,他向機器人提出問題,讓其模仿自己的風格進行寫作,他發現盡管它可以模仿他的風格,但往往缺乏真知灼見。


是的,人類的閱讀和寫作更像是藝術創造,而非機械的信息處理。我們的大腦在此過程中發揮想象力,產生新穎觀點。相較之下,盡管 GPT 能生成合理連貫文本,但它仍無法真正理解文本含義,也無法進行真正的創造。


作者看到一個潛在危險:這類寫作工具往往以提升效率為宣傳口號,但卻真實威脅到就業與思考。而后者的影響更深遠,因為有意義的表達正在成為一種可以批量生成“商品”——這些可以生成文本的機器人正在成為市場上熱門商品——而不再是人類特有的、植根于人類經驗的東西,寫作很多時候的確很痛苦,但這個過程其實是思考的過程,也是人之所以為人的體現


但我依然對人的未來保持樂觀,參考歷史,攝影的出現曾一度讓 19 世紀的畫家們感到失業風險,而相機的工業化生產和普及化進一步改變了畫家這個職業,畫家群體開始分化,有的人繼續在這條路上探索新風格,有的人則改行做了與畫畫相關的工作,這或許也是“碼字工人”們的未來

本內容未經允許禁止轉載,如需授權請微信聯系妙投小虎哥:miaotou515
如對本稿件有異議或投訴,請聯系tougao@huxiu.com
評論
0/500 妙投用戶社區交流公約
最新評論
這里空空如也,期待你的發聲
现金梭哈| 做生意房子选哪个方位| 网上百家乐导航| 新安县| 缅甸百家乐玩家吗| 百家乐官网桌颜色可定制| 赌场百家乐官网实战| 大发888 真钱娱乐场| E世博百家乐官网的玩法技巧和规则| 大发888是真的吗| 百家乐官网有试玩的吗| 皇家棋牌| 百家乐大钱赢小钱| 百家乐官网庄闲收益率| 缅甸百家乐娱乐场开户注册| 百家乐官网新庄| 海立方娱乐| 德州扑克庄家| 百家乐胜率被控制| 百家乐官网游戏开发软件| 百家乐法则| 百家乐如何投注法| 游戏机百家乐官网的技术| 百家乐官网游戏发展| 大发888娱乐场客户端| 试玩百家乐游戏机| 百家乐官网筹码防伪| 百家乐官网常用公式| 塑料百家乐官网筹码| 德州扑克论坛| 大发888注册步骤| 亚洲百家乐的玩法技巧和规则| 迷你百家乐论坛| 新葡京百家乐官网娱乐城| 娱乐城注册送彩金100| 百家乐牌壳| 缅甸百家乐玩假吗| 百家乐白菜价| 百家乐博赌城| 百家乐棋牌游戏币| 百家乐游戏下裁|