И рeжe признaют, чтo нe знaeт oтвeтВ Испaнии группa учeныx с Пoлитexничeскoгo унивeрситeтa Вaлeнсии прoвeлa исслeдoвaниe, показавшее, зачем с увеличением размера и konveda.in.ua alliancenet.com.ua
tribal.com.ua
bmorskaya.crimea.ua
сложности языковых моделей (LLM) они становятся не в такой степени склонными признавать свою осведомленность. Статья, опубликованная в журнале Nature..
© Ferra.ru
Асколирование возникло на фоне растущей популярности LLM, используемых с целью написания сочинений, стихотворений, решения математических задач и других задач. Ученые решили обнаружить, становятся ли LLM побольше точными с каждым обновлением и (как) будто они реагируют, поздно ли дают неправильный толк. Для тестирования точности были заданы тысячи вопросов, которые варьировались числом темам, включая математику, науку, анаграммы и географию.
Результаты показали общую тенденцию к улучшению точности с каждым новым обновлением, при всем при том с ростом сложности вопросов чёткость снижалась. Интересно, какими судьбами в новых версиях LLM реже признавали, подобно как не знают возражение. Вместо этого они чаще делали предположения, сколько приводило к большему количеству не хуже кого правильных, так и неправильных ответов.
Исследователи да отметили, что значительная участников не смогли сорвать покровы неверные ответы, подобно как подчеркивает проблему надежности современных языковых моделей.
. Родник:Tech Xplore