如果讓它再做彆的任務,就不大行。
而gpt的模式,則是【指示】。
也就是說,模型不會做二次學習、針對性學習,它不改變自己的參數。
你要做的,是給它一個示範和引導。
“你看一下,幫我找找類似這樣的句子。”
然後它就直接開展工作了。
下一次需要做彆的任務的時候,bert就很不方便,隻能重新再做針對性學習。
gpt則看一下新的指示和樣例,又能直接再次工作。
本小章還未完,請點擊下一頁後麵精彩內容!
這在目前的階段來看,是非常不可思議的。
至少在場的諸位都覺得這麼做是得不償失,為了某種形式上的先進而損失了大量的性能,毫無必要。
“你這說的是不是太離譜了,你隻是做一個示範,給模型一個提示,根本就沒有修改過任何的模型參數,為什麼它會有效果的提升?”聽完孟繁岐對兩種辦法的形容之後,阿裡克斯眉頭緊皺“結果如果真的是這樣,那不是徹底成玄學了?”
孟繁岐心說可不麼,這東西聽起來是不可思議,但確實有效。
直到他重生前,這件事也沒有一個特彆靠譜的嚴肅解釋。
而且這還不是最神奇的地方。
上麵所說的那種,給gpt一個例子,然後讓他做這樣的工作,叫做oneshot學習。
因為至少,你還讓它看了一個例子,做了一次示範。
而在後來的chatgpt和gpt4的時候,更多的用戶使用情況,是根本不會給模型任何例子的。
一般衝上來就直接布置工作了,比如“幫我翻譯一下這個句子”又或者是“幫我以xx為題寫一個xx”。
這種模式叫做zeroshot學習,連例子都不用給,直接開乾。
不管是分類文本,學習情感,寫作文案還是翻譯句子,不多廢話直接安排,它自己就能看懂要做什麼。
這才真的符合孟繁岐在人機大戰的時候展現的那個概念視頻,多種功能合而為一。
同時,它也是gpt與bert最為不同的地方,這種獨特的使用方式使得chatgpt效果一旦達標之後,直接就成為了現象級的產品。
畢竟誰能拒絕這種十幾合一的多麵手智能小助手呢?實在太酷了。
“你規劃中的bert和gpt,其實就是自編碼和自回歸。gpt會更擅長生成任務,翻譯和問答。bert則會更加擅長重建文本,做語言的分類。”
辛頓仍舊非常老辣地抓住了兩種方式的重點,但即便是這位ai老教父,他的預測終究還是出現了偏差“我個人覺得,bert的模式會強大很多,雙向編碼雖然犧牲了直接生成文本的能力,但對語言中各個詞彙的理解會更加到位。gpt隻能單向預測下一個文本,它對句子之間的內在聯係理解是不夠到位的。”
孟繁岐覺得辛頓雖然支持bert,但他的預測和分析並不能算錯。
畢竟chatgpt經曆了1、2、3、35四代迭代,才孕育出了chatgpt。
在億級彆的時代,gpt需要四五倍的參數量才能夠維持bert級彆的性能。
誰都沒有想到,模型參數量到達接近兩千億的規模之後,竟然湧現出了這般神奇的超能力。
如果隻從目前幾千萬甚至隻有幾百萬的參數量規模去考慮的話,gpt的實力的確很難去和bert相比擬。
“我推薦伱還是把主要的精力放在bert這種模式上,t方法的效果已經非常優秀了,在你加入了雙向形式,專注編碼之後,在很多特定的任務上都會有巨大的突破。”
孟繁岐隻是笑了笑,沒有爭辯,作為重生人士,他清楚哪些建議比較有價值,哪些建議是被時代所局限了。
喜歡重生之ai教父請大家收藏101novel.com重生之ai教父101novel.com更新速度全網最快。