每日經(jīng)濟(jì)新聞 2024-05-19 13:12:45
每經(jīng)編輯 畢陸名
開(kāi)欄語(yǔ):《大模界》是每日經(jīng)濟(jì)新聞旗下專(zhuān)注AIGC領(lǐng)域報(bào)道的欄目。從本周開(kāi)始,我們推出子欄目《AIGC行業(yè)周報(bào)》,梳理AIGC行業(yè)一周內(nèi)發(fā)生的重要?jiǎng)討B(tài),產(chǎn)品發(fā)布和業(yè)內(nèi)大咖的最新觀(guān)點(diǎn)。
1、OpenAI安全主管離職
5月18日凌晨,OpenAI安全主管、“超級(jí)智能對(duì)齊團(tuán)隊(duì)”負(fù)責(zé)人Jan Leike在社交平臺(tái)宣布,離開(kāi)OpenAI。這也是本周三OpenAI聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya Sutskever辭職之后,又有一名高管辭職。
Jan Leike在X上公開(kāi)透露了他離職的部分原因。他的潛臺(tái)詞是,他與OpenAI高層在公司的核心優(yōu)先事項(xiàng)上存在長(zhǎng)期分歧,最終雙方的分歧已經(jīng)嚴(yán)重到無(wú)法調(diào)和的地步。團(tuán)隊(duì)在推動(dòng)其研究項(xiàng)目和爭(zhēng)取計(jì)算資源時(shí)遇到了重大阻礙,缺乏資源會(huì)嚴(yán)重影響研究的進(jìn)度和質(zhì)量。
2、“超級(jí)智能對(duì)齊團(tuán)隊(duì)”解散
本周五(當(dāng)?shù)貢r(shí)間5月17日),OpenAI證實(shí),由Ilya和他的親信Jan Leike共同領(lǐng)導(dǎo)的“超級(jí)智能對(duì)齊團(tuán)隊(duì)”已經(jīng)解散。此后,該團(tuán)隊(duì)的研究工作將被整合到OpenAI的其他研究小組中。至此,一度幾乎導(dǎo)致OpenAI分崩離析的宮斗事件終于塵埃落定。
OpenAI首席執(zhí)行官Sam Altman感謝并肯定了Jan Leike在OpenAI的貢獻(xiàn)和領(lǐng)導(dǎo)能力。并表示,未來(lái)幾天內(nèi)會(huì)發(fā)表一篇更長(zhǎng)的文章,來(lái)闡述OpenAI對(duì)于產(chǎn)品安全的規(guī)劃和所做的事情。
而現(xiàn)在A(yíng)I風(fēng)險(xiǎn)團(tuán)隊(duì)解散是公司內(nèi)部最近出現(xiàn)動(dòng)蕩的又一證據(jù),也再次引發(fā)了人們對(duì)該公司在開(kāi)發(fā)AI產(chǎn)品時(shí)如何平衡速度與安全的質(zhì)疑。OpenAI章程規(guī)定,必須安全地開(kāi)發(fā)通用人工智能(AGI),即可以與人類(lèi)匹敵或超越人類(lèi)的技術(shù)。
3、百度AI轉(zhuǎn)型:AI First Business戰(zhàn)略下的增長(zhǎng)與創(chuàng)新
北京時(shí)間5月16日,百度在2024年Q1財(cái)報(bào)中展示了其凈利潤(rùn)的同比增長(zhǎng),超出市場(chǎng)預(yù)期,彰顯了公司從Internet Centric Business向AI First Business轉(zhuǎn)型的決心和成果。李彥宏強(qiáng)調(diào),AI技術(shù)正在全面重構(gòu)百度的產(chǎn)品和服務(wù),尤其在搜索業(yè)務(wù)上,百度正在通過(guò)AI生成的搜索結(jié)果和智能體平臺(tái)AgentBuilder,提升用戶(hù)體驗(yàn)和商業(yè)效率。百度App的月活用戶(hù)持續(xù)增長(zhǎng),智能云業(yè)務(wù)實(shí)現(xiàn)盈利,文心大模型成為云業(yè)務(wù)的重要增長(zhǎng)點(diǎn)。此外,百度在自動(dòng)駕駛領(lǐng)域取得突破,發(fā)布了支持L4級(jí)自動(dòng)駕駛的大模型Apollo ADFM,并推出了價(jià)格合理的蘿卜快跑第六代無(wú)人車(chē),展現(xiàn)了百度在A(yíng)I技術(shù)應(yīng)用和商業(yè)化方面的領(lǐng)先地位和未來(lái)的增長(zhǎng)潛力。
4、智源研究院發(fā)布國(guó)內(nèi)外140+大模型評(píng)測(cè)結(jié)果
北京時(shí)間5月17日,智源研究院在大模型評(píng)測(cè)發(fā)布會(huì)上推出了智源評(píng)測(cè)體系,公布了對(duì)國(guó)內(nèi)外140余個(gè)開(kāi)源和商業(yè)閉源的語(yǔ)言及多模態(tài)大模型的全方位能力評(píng)測(cè)結(jié)果。評(píng)測(cè)從主觀(guān)和客觀(guān)兩個(gè)維度進(jìn)行,涵蓋簡(jiǎn)單理解、知識(shí)運(yùn)用、推理能力等七大能力。結(jié)果顯示,在中文語(yǔ)境下,國(guó)內(nèi)頭部語(yǔ)言模型綜合表現(xiàn)接近國(guó)際一流水平,但在安全與價(jià)值觀(guān)對(duì)齊方面存在差異。多模態(tài)模型在中文語(yǔ)境下的文生圖能力和文生視頻能力上表現(xiàn)出色,尤其是Sora在視頻生成方面具有明顯優(yōu)勢(shì)。智源研究院還首次聯(lián)合教育機(jī)構(gòu)進(jìn)行大模型K12學(xué)科測(cè)試,發(fā)現(xiàn)模型在綜合學(xué)科能力上與學(xué)生平均水平有差距,尤其在文理學(xué)科和圖表理解能力上。此外,中國(guó)傳媒大學(xué)智能媒體計(jì)算實(shí)驗(yàn)室負(fù)責(zé)人提出需要系統(tǒng)化構(gòu)建文生視頻模型的主觀(guān)評(píng)價(jià)體系。智源評(píng)測(cè)體系旨在促進(jìn)模型性能優(yōu)化和產(chǎn)業(yè)落地,推動(dòng)大模型技術(shù)應(yīng)用的有序發(fā)展。
1、OpenAI發(fā)布全能大模型GPT-4o,免費(fèi)開(kāi)放Plus功能并提供API
美東時(shí)間5月13日周一,OpenAI推出了最新旗艦大模型GPT-4o,該模型不僅免費(fèi)開(kāi)放,還具備聽(tīng)、看、說(shuō)的能力,能夠?qū)崟r(shí)流暢地進(jìn)行視頻通話(huà),無(wú)延遲地響應(yīng),與人類(lèi)對(duì)話(huà)反應(yīng)速度一致。GPT-4o的"o"代表"Omni",即全能,能夠接受文本、音頻和圖像的任意組合作為輸入,并生成相應(yīng)的輸出。此外,GPT-4o將提供API,價(jià)格優(yōu)惠,速度提升,調(diào)用次數(shù)增加。OpenAI還展示了GPT-4o在實(shí)時(shí)翻譯、視覺(jué)識(shí)別等方面的應(yīng)用,并進(jìn)行了兩個(gè)ChatGPT模型之間的對(duì)話(huà)演示,展現(xiàn)了其端到端訓(xùn)練的神經(jīng)網(wǎng)絡(luò)處理語(yǔ)音、文本和圖像的能力。
盡管GPT-4o在圖像識(shí)別、情緒判斷、視頻內(nèi)容分析以及語(yǔ)言翻譯等方面表現(xiàn)出色,在某些特定任務(wù)上仍有局限。OpenAI計(jì)劃在未來(lái)幾周內(nèi)推出GPT-4o的語(yǔ)音功能alpha版,Plus用戶(hù)將優(yōu)先體驗(yàn)。GPT-4o的演示和體驗(yàn)揭示了AI在提供情緒價(jià)值、模擬人類(lèi)對(duì)話(huà)以及多模態(tài)交互方面的潛力,預(yù)示著AI技術(shù)在日常生活中的應(yīng)用將更加廣泛和深入。
同時(shí),OpenAI在其ChatGPT平臺(tái)推出了一項(xiàng)新功能,允許用戶(hù)直接打開(kāi)數(shù)據(jù)文件并進(jìn)行實(shí)時(shí)交互式數(shù)據(jù)分析。用戶(hù)可以通過(guò)Google Drive或Microsoft OneDrive上傳文件,ChatGPT將創(chuàng)建一個(gè)交互式表格,支持?jǐn)?shù)據(jù)分組、四舍五入等操作,并能夠創(chuàng)建圖表和總結(jié)結(jié)論。
此外,用戶(hù)還可以自定義和下載圖表,以便在演示文稿和文檔中使用。這些新功能預(yù)計(jì)將在未來(lái)幾周內(nèi)向ChatGPT Plus、團(tuán)隊(duì)和企業(yè)用戶(hù)開(kāi)放。有網(wǎng)友推測(cè),這些新功能背后可能使用了名為ADA V2(GPT-4)的數(shù)據(jù)分析新模型。OpenAI強(qiáng)調(diào),企業(yè)用戶(hù)的數(shù)據(jù)不會(huì)被用于訓(xùn)練,ChatGPT Plus用戶(hù)可以選擇開(kāi)啟隱私保護(hù)功能。
2、谷歌推出Project Astra和Veo模型,與OpenAI的GPT-4o展開(kāi)競(jìng)爭(zhēng)
北京時(shí)間15日凌晨1點(diǎn),在OpenAI發(fā)布GPT-4o后,谷歌DeepMind首席執(zhí)行官哈薩比斯推出了名為Project Astra的AI助手,該助手基于Gemini系列模型,旨在提供日常生活幫助,并通過(guò)攝像頭直接讀取代碼。此外,谷歌還推出了Veo視頻生成模型,能夠生成最長(zhǎng)超過(guò)1分鐘的1080p高質(zhì)量視頻。谷歌進(jìn)一步將Gemini模型集成到全線(xiàn)產(chǎn)品中,包括谷歌搜索、Android系統(tǒng)、谷歌Photos和谷歌Workspace,顯著提升了AI在搜索、手勢(shì)識(shí)別搜索、圖片視頻查找以及工作生產(chǎn)力工具中的應(yīng)用。谷歌還宣布了第六代TPU Trillium,將在今年向云客戶(hù)提供,其性能和能效比前代有顯著提升。
3、字節(jié)跳動(dòng)發(fā)布豆包大模型家族,以低價(jià)格和多場(chǎng)景應(yīng)用為特點(diǎn)
北京時(shí)間5月15日,字節(jié)跳動(dòng)通過(guò)其火山引擎首次公開(kāi)亮相了豆包大模型家族,共9個(gè)成員,包括通用模型pro和lite兩個(gè)尺寸。這些模型專(zhuān)注于實(shí)際應(yīng)用效果,而非僅僅追求參數(shù)規(guī)模和榜單分?jǐn)?shù)。豆包大模型的價(jià)格顯著低于行業(yè)標(biāo)準(zhǔn),旨在實(shí)現(xiàn)廣泛的應(yīng)用和使用?;鹕揭鎻?qiáng)調(diào)通過(guò)大規(guī)模使用量來(lái)不斷優(yōu)化模型,其大模型自上線(xiàn)以來(lái),每天處理的token數(shù)量高達(dá)1200億,生成圖片3000萬(wàn)張,并在50多個(gè)場(chǎng)景中進(jìn)行實(shí)踐和驗(yàn)證。此外,火山引擎還升級(jí)了火山方舟平臺(tái),發(fā)布了扣子專(zhuān)業(yè)版,旨在簡(jiǎn)化企業(yè)級(jí)AI應(yīng)用的開(kāi)發(fā)和落地。
1、Sam Altman:GPT-4o幕后揭秘,GPT-5會(huì)很特別
當(dāng)?shù)貢r(shí)間5月16日,OpenAI首席執(zhí)行官Sam Altman(阿爾特曼)在接受紅點(diǎn)風(fēng)險(xiǎn)投資公司董事LoganBartlett的專(zhuān)訪(fǎng)中,深入討論了GPT-4o多模態(tài)大模型的創(chuàng)新特點(diǎn),包括其跨文本、視頻、音頻推理的能力,以及低延遲帶來(lái)的應(yīng)用場(chǎng)景拓展。Altman還透露了GPT-5的發(fā)展方向,暗示其將具有類(lèi)似“虛擬大腦”的功能,幫助用戶(hù)處理各種任務(wù)。
此外,他表達(dá)了對(duì)開(kāi)源大模型領(lǐng)域的認(rèn)可,并認(rèn)為編程領(lǐng)域?qū)⑹俏磥?lái)12個(gè)月最有前途的應(yīng)用程序領(lǐng)域之一。他還提到了AI芯片廠(chǎng)的建設(shè)計(jì)劃,以及對(duì)AGI(人工通用智能)的看法,認(rèn)為AGI將能夠極大地提高工作效率。
2、甲子光年發(fā)布2024中國(guó)AI新風(fēng)向30條判斷
北京時(shí)間5月15日,甲子光年創(chuàng)始人兼CEO張一甲在“2024甲子引力X科技產(chǎn)業(yè)新風(fēng)向”大會(huì)上發(fā)布了關(guān)于中國(guó)AI發(fā)展的30條判斷。這些判斷涵蓋了AI對(duì)生產(chǎn)力變革的影響、AI技術(shù)發(fā)展的四個(gè)階段(AI生產(chǎn)時(shí)代、AI原生時(shí)代、AI創(chuàng)生時(shí)代、AI文明時(shí)代)、以及AI在不同階段的意義和作用。張一甲還討論了AI與人類(lèi)生產(chǎn)活動(dòng)的關(guān)系、AI對(duì)社會(huì)經(jīng)濟(jì)結(jié)構(gòu)的深遠(yuǎn)影響、以及AI發(fā)展所面臨的挑戰(zhàn)和爭(zhēng)議。此外,她還提出了關(guān)于A(yíng)I是否真的創(chuàng)造新需求、人類(lèi)與AI之間相互作用的反思性問(wèn)題,并探討了AI對(duì)經(jīng)濟(jì)權(quán)重、文化形態(tài)的影響,以及AI與人類(lèi)文明共生的可能性。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線(xiàn):4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP