Исследование: чем сложнее ИИ, тем чаще он обманывает

И рeжe признaют, чтo нe знaeт oтвeтВ   Испaнии группa учeныx с   Пoлитexничeскoгo унивeрситeтa Вaлeнсии прoвeлa исслeдoвaниe, показавшее, зачем с   увеличением размера и   konveda.in.ua alliancenet.com.ua
tribal.com.ua

bmorskaya.crimea.ua
сложности языковых моделей (LLM) они становятся не в такой степени склонными признавать свою осведомленность. Статья, опубликованная в   журнале Nature.. Исследование: чем сложнее ИИ, тем чаще он   обманывает

© Ferra.ru

Асколирование возникло на   фоне растущей популярности LLM, используемых с целью написания сочинений, стихотворений, решения математических задач и   других задач. Ученые решили обнаружить, становятся   ли LLM побольше точными с   каждым обновлением и   (как) будто они реагируют, поздно ли дают неправильный толк. Для тестирования точности были заданы тысячи вопросов, которые варьировались числом   темам, включая математику, науку, анаграммы и   географию.

Результаты показали общую тенденцию к   улучшению точности с   каждым новым обновлением, при всем при том с   ростом сложности вопросов чёткость снижалась. Интересно, какими судьбами в   новых версиях LLM реже признавали, подобно как не   знают возражение. Вместо этого они чаще делали предположения, сколько приводило к   большему количеству не хуже кого правильных, так и   неправильных ответов.

Исследователи да отметили, что значительная участников не   смогли сорвать покровы неверные ответы, подобно как подчеркивает проблему надежности современных языковых моделей.

. Родник:Tech Xplore

Комментарии и уведомления в настоящее время закрыты..

Комментарии закрыты.