當(dāng)前位置:首頁>生活> OpenAI CEO Altman:大語言模型不是“越大越好”
發(fā)布時(shí)間:2026-01-17閱讀( 10)
北京時(shí)間4月13日,open AI聯(lián)合創(chuàng)始人及首席執(zhí)行官在麻省理工學(xué)院接受了相關(guān)的采訪,他表示Open AI大語言模型并不是所謂的越大越好,同時(shí)他認(rèn)為自己的團(tuán)隊(duì)正在為了大小而逐漸接近人工智能的極限,目前他們的公司已經(jīng)走到了這個(gè)時(shí)代的盡頭,將會(huì)用其他的方式把這個(gè)模型做的更加的好,他也認(rèn)為大小并非是衡量一個(gè)模型質(zhì)量好壞的正確方式。

未來的模型參數(shù)應(yīng)該向更小的方向進(jìn)行發(fā)展,或者以多個(gè)小模型協(xié)作的方式進(jìn)行工作,也就意味著未來的AI人工智能技術(shù)是應(yīng)該將重點(diǎn)放在提高模型的能力上,而不是取決于模型的大小問題,參數(shù)的數(shù)量應(yīng)該隨著時(shí)間的推移而不斷的減少。讓每一個(gè)模型都變得更小,才能更好的方便工作,但是也不能夠忽略參數(shù)的數(shù)量。#詹姆斯411#
歡迎分享轉(zhuǎn)載→ http://m.avcorse.com/read-924154.html
Copyright ? 2024 有趣生活 All Rights Reserve吉ICP備19000289號(hào)-5 TXT地圖HTML地圖XML地圖