Разработан более дешевый способ обучения Больших языковых моделей
Команда ученых из Стэнфорда разработала новый способ оптимизации предварительного обучения Больших языковых моделей, который в два раза быстрее, чем существующие подходы. Это позволит значительно удешевить разработку Больших языковых моделей и сделать их создание более доступным независимым разработчикам.
![ce9cebf76db8bc7877647f1250420a14_ce_1974x1316x0x83.jpg](https://cs.kiozk.ru/content/article/syx/oe1/zhh/jqlvngwj4c28zvdf8vonrd1/zlle86.jpg?v=1&temp_url_sig=U5hAYPJPaKJ526Nyu5_DCg&temp_url_expires=1738958370)
Цель таких работ — сделать Большие языковые модели (такие как GPT), требующие миллионы на обучение, работающие на мощнейших компьютерах с огромными дата-центрами, доступными на домашнем компьютере или смартфоне. И разработчики двигаются в этом направлении.
Команда ученых из Стэнфорда разработала новый способ оптимизации предварительного обучения Больших языковых моделей, который в два раза быстрее, чем существующие подходы.
ChatGPT и другие приложения, использующие Большие языковые модели (LLM), находят все более широкое применение и привлекают пристальное внимание СМИ. Однако в сфере LLM доминируют несколько крупных технологических компаний, поскольку предварительное обучение этих моделей является чрезвычайно дорогостоящим процессом: стоимость начинается с 10 миллионов долларов. Сколько стоило обучение GPT не сообщается, но оценить его в миллиард долларов не будет серьезным преувеличением.
«Большие языковые модели не очень-то доступны для небольших организаций или академических групп», — говорит Хонг Лю, аспирант факультета информатики Стэнфордского университета.
Чтобы изменить ситуацию, Лю и его коллеги решили усовершенствовать существующие методы оптимизации LLM. В результате был разработан подход под названием Sophia, который сокращает время предварительного обучения вдвое.
Оптимизация оптимизации
![507231df3ff536c824bc47835115b915.jpg](https://cs.kiozk.ru/content/article/syx/oe1/zhh/jqlvngwj4c28zvdf8vonrd1/pnupx5.jpg?v=1&temp_url_sig=0PWaSgRAU-l8RgpCxVEqAg&temp_url_expires=1738958370)
Чтобы оптимизировать предварительное обучение LLM ученые использовали два приема. Первый, известный как оценка кривизны, не нов, но команда Стэнфорда нашла способ сделать его более эффективным.