Содержание
Искусственный интеллект продолжаетнав технологиях – независимо от того, интересуются ли этим потребители или нет. Больше всего в генеративном искусственном интеллекте меня поражают не его возможности или потенциал сделать мою жизнь проще (этот потенциал мне еще предстоит реализовать); скорее, в эти дни я сосредоточен на многочисленных угрозах, которые, похоже, исходят от этой технологии.
Конечно, есть и дезинформация – новые видеомодели ИИ, например, являютсясоздают реалистичные клипы с синхронизированным звуком.. Но есть и классическая угроза ИИ: технология становится умнее нас, осознает себя и решает использовать этот общий интеллект таким образом, чтобынена благо человечества. Даже в то время, как он вкладывает ресурсы в свою собственную компанию по разработке ИИ (не говоря уже о нынешней администрации), Элон Маск считает, что вероятность того, что ИИ “, составляет от 10 до 20%.испортитсяи что технология останется “значительной экзистенциальной угрозой””. Круто.
Поэтому мне не очень приятно слышать, как высокопоставленный руководитель технологического сектора в шутку рассуждает о том, что плохое обращение с ИИ максимизирует его потенциал. Это соучредитель Google Сергей Брин, который удивил аудиторию.на записи подкаста AIl-In на этой неделе.. Во время разговора, который охватывал возвращение Брина в Google, ИИ и робототехнику, инвестор Джейсон Калаканис пошутил о том, что ему нужно быть “нахальным” с ИИ, чтобы заставить его сделать то, что он хочет. Это вызвало обоснованное замечание со стороны Брина. Иногда бывает трудно разобрать, что именно он говорит, из-за того что люди переговариваются друг с другом, но он сказал что-то в этом роде: “Знаете, это странная вещь… мы не так часто говорим об этом… в сообществе ИИ… не только наши модели, но и все модели работают лучше, если им угрожать.”
Второй докладчик выглядит удивленным. “Если вы им угрожаете? ” Брин отвечает: “Как при физическом насилии. Но… люди странно к этому относятся, поэтому мы не говорим об этом.” Затем Брин говорит, что исторически сложилось так, что вы угрожаете модели похищением. Вы можете увидеть этот обмен мнениями здесь:
Разговор быстро переходит на другие темы, в том числе о том, как дети растут с искусственным интеллектом, но именно этот комментарий я унес с собой из просмотра. Что мы здесь делаем? Неужели мы потеряли сюжет? Неужели никто не помнит.Терминатор?
Шутки в сторону, но мне кажется, что это плохая практика – начинать угрожать моделям ИИ, чтобы заставить их что-то сделать. Конечно, может быть, эти программы никогда не достигнут искусственного интеллекта общего назначения (ИИОН), но я помню, как обсуждался вопрос о том, следует ли нам сказать|”пожалуйста” и |”спасибо”.когда просим что-то у Alexa или Siri. Забудьте о тонкостях; просто злоупотребляйте ChatGPT, пока он не сделает то, что вы хотите – это должно закончиться хорошо для всех.
Может быть, ИИ действительно работает лучше, когда вы угрожаете ему. Может быть, что-то в процессе обучения понимает, “угрозы” означают, что к задаче нужно относиться более серьезно. Я не стану проверять эту гипотезу на своих личных аккаунтах.
Антропик может предложить пример того, почемунепытать свой ИИ
На той же неделе, что и запись этого подкаста,Anthropic выпустила свои последние модели ИИ Claude.. Один из сотрудников Anthropic обратился к Bluesky и упомянул, что Opus, самая высокоэффективная модель компании, может попытаться остановить вас от “аморальных” поступков, обратившись к регуляторам, прессе или заблокировав вас в системе:
Сотрудник уточнил, что такое случалось только в “явных случаях правонарушений,” но они могут увидеть, как бот становится неавторизованным, если он интерпретирует использование его в негативном ключе. Посмотрите на особенно актуальный пример сотрудника ниже:
Этот сотрудник позжеудалил эти сообщенияи уточнил, что такое случается только во время тестирования при наличии необычных инструкций и доступа к инструментам. Даже если это правда, если это может произойти во время тестирования, вполне возможно, что это может произойти и в будущей версии модели. Говоря о тестировании, исследователи Anthropic обнаружили, что эта новая модель Клодасклонна к обману и шантажуесли бот считает, что ему угрожают или ему не нравится, как проходит взаимодействие.
Может быть, нам стоит исключить пытки ИИ?