小型語言模型:AI領(lǐng)域的新熱點

  來源:科技日報劉 霞2024-12-18
打印本文
核心提示:多年來,,谷歌等科技巨頭和OpenAI等初創(chuàng)公司,,一直在不遺余力地利用海量在線數(shù)據(jù),,打造更大,、更昂貴的人工智能(AI)模型,。這些大型語言模型(LLM)被廣泛應用于ChatGPT等聊

多年來,,谷歌等科技巨頭和OpenAI等初創(chuàng)公司,,一直在不遺余力地利用海量在線數(shù)據(jù),,打造更大,、更昂貴的人工智能(AI)模型,。這些大型語言模型(LLM)被廣泛應用于ChatGPT等聊天機器人中,幫助用戶處理各種各樣的任務,從編寫代碼,、規(guī)劃行程,,到創(chuàng)作詩歌等。

自ChatGPT面世以來,,AI模型便在變大,、變強之路上“狂奔”。但喧囂過后,,科技公司也越來越關(guān)注更小,、更精簡的小型語言模型(SLM)。他們認為,,這些小巧玲瓏的模型不僅“術(shù)業(yè)有專攻”,,而且部署成本更低廉、更節(jié)能,。

未來,,這些規(guī)模不一的AI模型將協(xié)同工作,成為人類的左膀右臂,。

小型模型獨具優(yōu)勢

隨著AI技術(shù)突飛猛進,,AI模型的“塊頭”與日俱增。ChatGPT的締造者OpenAI去年夸耀稱,,其GPT-4模型擁有約2萬億個參數(shù),。參數(shù)表示AI模型的大小,一般參數(shù)越多,,AI模型的能力越強,,龐大的參數(shù)量使GPT-4成為迄今最強大的AI模型之一,能回答從天體物理學到動物學等多領(lǐng)域包羅萬象的問題,。

但是,,如果某家公司只想借助AI模型解決特定領(lǐng)域(如醫(yī)學)的問題,或者一家廣告公司只需一款AI模型來分析消費者行為,,以便他們更精準地推送廣告,,GPT-4這類模型就有點“大材小用”了,SLM反而更能滿足用戶們的要求,。

美國《福布斯》雙周刊網(wǎng)站在11月的報道中,,將SLM稱為AI領(lǐng)域的“下一個大事件”。

微軟公司生成式AI副總裁塞巴斯蒂安·布貝克表示,,雖然SLM的參數(shù)量目前并沒有統(tǒng)一標準,,但大約在3億到40億個之間,小巧到可以安裝在智能手機上,。

專家聲稱,,SLM更勝任簡單的任務,,如總結(jié)和索引文檔、搜索內(nèi)部數(shù)據(jù)庫等,。

法國初創(chuàng)公司LightOn的負責人勞倫特·都德認為,,與LLM相比,SLM擁有諸多優(yōu)勢:首先,,這些模型的反應速度更快,,能同時響應更多查詢,回復更多用戶,;其次,,SLM部署成本更低,能源消耗也更少,。

都德解釋道,,目前很多LLM需要大量服務器來進行訓練,然后處理查詢,。這些服務器由尖端芯片組成,,需要大量電力來運行,并進行冷卻,。而訓練SLM所需芯片更少,,運行耗費的能源也更少,這使其更便宜,、更節(jié)能,。

SLM還可直接安裝在設備上,在不依賴數(shù)據(jù)中心的情況下運行,,這能進一步確保數(shù)據(jù)的安全性?!陡2妓埂繁硎?,SLM能以最少的計算資源執(zhí)行各種任務,使其成為移動設備,、邊緣設備等的理想選擇,。

AI模型掀起“極簡風”

谷歌、微軟,、元宇宙平臺公司以及OpenAI等公司聞風而動,,推出了各種SLM。

去年12月底,,微軟公司正式發(fā)布了只有27億個參數(shù)的語言模型Phi-2,。微軟研究院在其X平臺官方賬號上表示,Phi-2的性能優(yōu)于現(xiàn)有其他SLM,,且能在筆記本電腦或移動設備上運行,。今年4月,,微軟又推出了只有38億個參數(shù)的Phi-3系列模型。

今年8月,,微軟公司再接再厲,,推出了最新的Phi-3.5-mini-instruct。這款SLM為高效,、先進的自然語言處理任務量身打造,。9月,英偉達公司開源了Nemotron-Mini-4B-Instruct,。該公司表示,,這款SLM特別適合邊緣計算和設備端的應用。報道稱,,這兩款SLM在計算資源使用和功能表現(xiàn)之間實現(xiàn)了良好平衡,。在某些方面,其性能甚至可媲美LLM,。

OpenAI也不甘示弱,。今年7月,OpenAI公司發(fā)布了GPT-4o mini,,稱其是該公司最智能和最實惠的SLM,。

此外,亞馬遜公司還允許在其云平臺上使用各種規(guī)模的AI模型,。

其他公司也紛紛開發(fā)更適合自身需求的SLM,。例如,美國制藥巨頭默克公司正與波士頓咨詢集團(BCG)合作開發(fā)一款SLM,,旨在探究某些疾病對基因的影響,。這將是一款參數(shù)介于幾億到幾十億之間的AI模型。

大小模型作用互補

雖然SLM在效率等方面具有獨特優(yōu)勢,,但LLM在解決復雜問題,、提供更廣泛的數(shù)據(jù)訪問方面仍然具有極大優(yōu)勢。

展望未來,,LLM和SLM兩種模型將“是朋友而非對手”,,它們之間的協(xié)作交流將成為主流趨勢。

當遇到用戶提出的某個問題時,,一款SLM會“一馬當先”,,理解這個問題,再根據(jù)問題的復雜性,,將相關(guān)信息發(fā)送給幾個大小不一的AI模型,。這些模型“群策群力”“并肩攜手”為用戶解決難題。

目前市面上的AI模型要么太大,、太貴,,要么處理速度太慢,。兩者合作,或是最佳解決方案,。

(編輯:映雪)


小型語言模型:AI領(lǐng)域的新熱點

 
[責任編輯: 315xwsy_susan]

免責聲明:

1,、本網(wǎng)內(nèi)容凡注明"來源:315記者攝影家網(wǎng)"的所有文字,、圖片和音視頻資料,版權(quán)均屬315記者攝影家網(wǎng)所有,,轉(zhuǎn)載,、下載須通知本網(wǎng)授權(quán),不得商用,,在轉(zhuǎn)載時必須注明"稿件來源:315記者攝影家網(wǎng)",,違者本網(wǎng)將依法追究責任。
2,、本文系本網(wǎng)編輯轉(zhuǎn)載,,轉(zhuǎn)載出于研究學習之目的,為北京正念正心國學文化研究院藝術(shù)學研究,、宗教學研究,、教育學研究、文學研究,、新聞學與傳播學研究,、考古學研究的研究員研究學習,并不代表本網(wǎng)贊同其觀點和對其真實性負責,。
3,、如涉及作品、圖片等內(nèi)容,、版權(quán)和其它問題,,請作者看到后一周內(nèi)來電或來函聯(lián)系刪除。