Без цензуры и права на ошибку: чего ждать от ИИ в 2024 году
Nvidia выложила новую LLM-модель, которая местами обгоняет GPT4o по точности и скорости. Но главная новость в том, что в описании лицензии компания открыто призывает пользователей к этичному применению ее разработки: просит принять меры для устранения предвзятости и смягчения вреда от использования ИИ в адрес социальных меньшинств и уязвимых групп, а также сообщать пользователям и клиентам о критически важных особенностях и ограничениях нейросетей. Заявление Nvidia — отличный повод поговорить о таком важнейшем тренде для ИИ-отрасли, как этичность технологий.
ИИ без цензуры
Не успела утихнуть волна скандалов вокруг OpenAI, как представители ИТ-корпораций снова заговорили о сверхсильном ИИ как угрозе для всего человечества.
Речь о коллективном письме бывших и нынешних сотрудников OpenAI, Google DeepMind и Anthropic. В нем они призывают разрешить им свободно высказываться о своих опасениях относительно ИИ-технологий как внутри компаний, так и за их пределами.
Среди главных рисков авторы письма называют усугубление неравенства, дезинформацию и полную потерю контроля над сверхсильным ИИ (AGI). В результате человечество может просто исчезнуть.
Эти риски ранее уже признали в самих OpenAI, Google DeepMind и Anthropic, а также власти США, Великобритании и более 250 исследователей из 29 стран. Но этого недостаточно, чтобы воздействовать на ИТ-корпорации, которые пойдут на все в погоне за прибылью. При этом у них есть огромные ресурсы и закрытые данные, которыми они не готовы делиться с общественностью. Авторы считают, что нужен жесткий госконтроль за ИИ-разработчиками. И жалуются, что соглашения о конфиденциальности не позволяют им говорить обо всех рисках публично и обращать внимание на самые угрожающие тенденции и разработки, чтобы вовремя принять меры.
В OpenAI уже отменили жесткие правила, по которым сотрудников лишают акций компании за публичную критику и поддержали необходимость госрегулирования. Ранее из-за этих правил компанию покинули ведущие исследователи-разработчики Джеффри Хинтон и Леопольд Ашенбреннер, которые открыто выступают с критикой бесконтрольных ИИ-разработок.
В своем аналитическом отчете Ашенбреннер предупреждает, что AGI может появиться уже в 2027 году, а в ближайшем будущем мы будем иметь дело уже с ASI искусственным суперинтеллектом, который превзойдет человеческий мозг. Под нужды этого сверхинтеллекта перестроят всю мировую экономику, отодвинув на второй план другие глобальные проблемы.
Регулированием ИИ заинтересовались и в России. На конференции AI Journey в прошлом году ведущие разработчики приняли «Декларацию об ответственном экспорте ИИ», а к «Кодексу этики ИИ» уже присоединились несколько десятков российских ИТ-компаний, которые входят в «Альянс ИИ». В них участники отрасли призывают следить за тем, чтобы ИИ-разработки оставались в рамках контроля и безопасности, не угрожали приватности и не приводили к манипуляциям.
Но все это пока что носит декларативный характер, хотя инициаторы документов всячески лоббируют их принятие на госуровне. Пока что дело дошло только до регулирования персональных данных, которые используются онлайн-сервисами. Что касается саморегуляции «снизу», то, с учетом неформальной монополии ИТ-корпораций на ИИ-разработки в России, в нее верится с трудом. Кроме того, кодекс затрагивает только гражданские технологии, а про остальные в нем речи не идет. Громких заявлений о том, куда движется развитие нейросетей в российских компаниях тоже пока не слышно.
Цена ошибки
Когда рассуждают о том, как ИИ может навредить, то часто вспоминают ошибки нейросетей или беспилотников. Некоторые из них могут приводить к тяжелым последствиям, вплоть до летальных исходов: это, например, сбитый пешеход, который перебегает на красный свет светофора, или неверный диагноз, который поставили пациенту по вине нейросети. Но когда речь идет о более «невинных» чат-ботах, ошибки иногда полезны. Например, чтобы напомнить людям, что ИИ учится на нашем опыте, и что любую рекомендацию нужно воспринимать критически.
Это хорошо видно на примере чат-бота Claude. Его разработчик подробно описал процесс обучения, из которого можно сделать интересные выводы. Он пишет, что, вообще-то, избегать чувствительных тем и неоднозначных ответов при обучении нейросетей — не самая хорошая стратегия. Это создает искусственные ограничения и заметно искажает объективную картину, на которую рассчитывают пользователи. Как быть в этом случае с цензурой и законодательными ограничениями — непонятно.
И тут возникает другой парадокс: когда люди видят, что ИИ общается с ними откровенно и без купюр, они начинают наделять его человеческими качествами и эмоциями. Сами разработчики приписывают своему чат-боту «вдумчивость» и «проницательность» и говорят о нем как о личности. Claude вообще задуман не просто как чат-бот, а полноценный ИИ-ассистент и личный помощник, поэтому вопрос доверия здесь принципиальный. В том, что это правильно, есть большие сомнения: нейросети и так успешно обходят тест Тьюринга, но должны ли мы относится к ним, как к людям? И чем может обернуться безусловное доверие к тем, кто дает нам советы личного и финансового характера?
Большие модели vs малые
К слову о праве на ошибку. Сейчас принято измерять прогресс в сфере ИИ новыми версиями ChatGPT и других больших языковых моделей. Считается, что чем больше массив данных для обучения, тем меньше вероятности ошибок и неточностей. Яркий пример — массовые штрафы водителям праворульных машин: ИИ-камеры видели, что на левом сиденье ремень не пристегнут и считали, что водитель нарушил правила.
Но потребности в нейросетях растут геометрически, а обучение и развитие LLM требует огромных ресурсов. И тут на арену выходят SLM — малые языковые модели, которые Microsoft объявил одним из ключевых ИИ-трендов 2024 года. Помимо Microsoft, они уже есть у Google и OpenAI, в том числе на базе популярных LLM вроде ChatGPT или BERT.
В отличие от LLM, они работают с малыми массивами данных, но более тщательно отобранных — например, при помощи дистилляции тех, что получились от обучения больших моделей. При этом качество данных лучше, а результате получаются более точными. SLM разрабатывают для узкоспециальных задач с небольшим набором параметров, тогда как у LLM их могут быть миллиарды.
В итоге для работы с такой моделью достаточно обычного ПК или даже смартфона, без супермощных чипов, которые разрабатывают специально для LLM. А это значит, что у малых моделей гораздо больше шансов стать массовыми. Например, в системах интернета вещей: от умного дома и транспорта до цифровых двойников предприятий. Те же персональные ИИ-ассистенты на базе SLM тоже могут стать успешным кейсом. Такие уже появляются в виде мобильных устройств без привычных нам интерфейсов (а иногда даже без экрана) и умеют делать почти все: от заказа столика в ресторане до управления умным домом. Для бизнеса они могут составлять письма и сообщения, следить за качеством обслуживания клиентов и эффективностью сотрудников.