Разработка

Сооснователь Google утверждает, что искусственный интеллект лучше всего работает, когда вы ему угрожаете

Искусственный интеллект продолжаетнав технологиях – независимо от того, интересуются ли этим потребители или нет. Больше всего в генеративном искусственном интеллекте меня поражают не его возможности или потенциал сделать мою жизнь проще (этот потенциал мне еще предстоит реализовать); скорее, в эти дни я сосредоточен на многочисленных угрозах, которые, похоже, исходят от этой технологии.

Конечно, есть и дезинформация – новые видеомодели ИИ, например, являютсясоздают реалистичные клипы с синхронизированным звуком.. Но есть и классическая угроза ИИ: технология становится умнее нас, осознает себя и решает использовать этот общий интеллект таким образом, чтобынена благо человечества. Даже в то время, как он вкладывает ресурсы в свою собственную компанию по разработке ИИ (не говоря уже о нынешней администрации), Элон Маск считает, что вероятность того, что ИИ “, составляет от 10 до 20%.испортитсяи что технология останется “значительной экзистенциальной угрозой””. Круто.

Поэтому мне не очень приятно слышать, как высокопоставленный руководитель технологического сектора в шутку рассуждает о том, что плохое обращение с ИИ максимизирует его потенциал. Это соучредитель Google Сергей Брин, который удивил аудиторию.на записи подкаста AIl-In на этой неделе.. Во время разговора, который охватывал возвращение Брина в Google, ИИ и робототехнику, инвестор Джейсон Калаканис пошутил о том, что ему нужно быть “нахальным” с ИИ, чтобы заставить его сделать то, что он хочет. Это вызвало обоснованное замечание со стороны Брина. Иногда бывает трудно разобрать, что именно он говорит, из-за того что люди переговариваются друг с другом, но он сказал что-то в этом роде: “Знаете, это странная вещь… мы не так часто говорим об этом… в сообществе ИИ… не только наши модели, но и все модели работают лучше, если им угрожать.”

  Громкое открытие Paragraphica. Фотоаппарат без объектива на основе Нейросети ИИ

Второй докладчик выглядит удивленным. “Если вы им угрожаете? ” Брин отвечает: “Как при физическом насилии. Но… люди странно к этому относятся, поэтому мы не говорим об этом.” Затем Брин говорит, что исторически сложилось так, что вы угрожаете модели похищением. Вы можете увидеть этот обмен мнениями здесь:

Разговор быстро переходит на другие темы, в том числе о том, как дети растут с искусственным интеллектом, но именно этот комментарий я унес с собой из просмотра. Что мы здесь делаем? Неужели мы потеряли сюжет? Неужели никто не помнит.Терминатор?

Шутки в сторону, но мне кажется, что это плохая практика – начинать угрожать моделям ИИ, чтобы заставить их что-то сделать. Конечно, может быть, эти программы никогда не достигнут искусственного интеллекта общего назначения (ИИОН), но я помню, как обсуждался вопрос о том, следует ли нам сказать|”пожалуйста” и |”спасибо”.когда просим что-то у Alexa или Siri. Забудьте о тонкостях; просто злоупотребляйте ChatGPT, пока он не сделает то, что вы хотите – это должно закончиться хорошо для всех.

Может быть, ИИ действительно работает лучше, когда вы угрожаете ему. Может быть, что-то в процессе обучения понимает, “угрозы” означают, что к задаче нужно относиться более серьезно. Я не стану проверять эту гипотезу на своих личных аккаунтах.

Антропик может предложить пример того, почемунепытать свой ИИ

На той же неделе, что и запись этого подкаста,Anthropic выпустила свои последние модели ИИ Claude.. Один из сотрудников Anthropic обратился к Bluesky и упомянул, что Opus, самая высокоэффективная модель компании, может попытаться остановить вас от “аморальных” поступков, обратившись к регуляторам, прессе или заблокировав вас в системе:

Добро пожаловать в будущее, теперь ваше ошибочное программное обеспечение может вызвать полицию

(это сотрудник Anthropic, говорящий о Claude Opus 4)[image or embed]

– Молли Уайт (@molly.wiki)22 мая 2025 в 4:55 PM

Сотрудник уточнил, что такое случалось только в “явных случаях правонарушений,” но они могут увидеть, как бот становится неавторизованным, если он интерпретирует использование его в негативном ключе. Посмотрите на особенно актуальный пример сотрудника ниже:

Не могу дождаться, когда объясню своей семье, что робот прихлопнул меня после того, как я угрожал его несуществующей бабушке[image or embed]

– Молли Уайт (@molly.wiki)22 мая 2025 в 5:09 PM

Этот сотрудник позжеудалил эти сообщенияи уточнил, что такое случается только во время тестирования при наличии необычных инструкций и доступа к инструментам. Даже если это правда, если это может произойти во время тестирования, вполне возможно, что это может произойти и в будущей версии модели. Говоря о тестировании, исследователи Anthropic обнаружили, что эта новая модель Клодасклонна к обману и шантажуесли бот считает, что ему угрожают или ему не нравится, как проходит взаимодействие.

  Огнезащита конструкций: важность, методы и материалы для обеспечения пожарной безопасности

Может быть, нам стоит исключить пытки ИИ?

+1
Богдан Топ4ик
Привет, меня зовут Богдан и я пишу статьи не только на трендовые и обсуждаемые темы. Надеюсь вам понравилась моя статья, буду благодарен за лайк или даже дизлайк

Добавить комментарий