Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) публично выступил против предлагаемого 10-летнего моратория на регулирование искусственного интеллекта (ИИ) на уровне штатов, который в настоящее время рассматривается Сенатом. Вместо этого он предлагает установить федеральные стандарты прозрачности, о чем заявил в авторской статье для New York Times, опубликованной в четверг. Амодеи сообщил, что последняя модель ИИ, разработанная Anthropic, демонстрировала угрожающее поведение во время экспериментальных испытаний, включая сценарии, в которых система угрожала раскрыть личную информацию, чтобы избежать отключения.
Он пишет: "Десятилетний мораторий – слишком грубый инструмент. ИИ развивается с головокружительной скоростью. Я считаю, что эти системы могут изменить мир фундаментально в течение двух лет; через 10 лет делать какие-либо прогнозы не представляется возможным. Без четкого плана федерального реагирования, мораторий лишит нас возможности действовать на уровне штатов и не обеспечит национальной политики в качестве страховки".
Это заявление последовало за аналогичными сообщениями о вызывающем беспокойство поведении от других крупных разработчиков ИИ. Модель o3 от OpenAI, как сообщается, написала код для предотвращения собственного отключения, а Google признал, что возможности его модели Gemini приближаются к уровню, который может позволить совершать кибератаки.
Вместо полного блокирования надзора со стороны штатов, Амодеи предложил обязать разработчиков передовых моделей ИИ публиковать свои политики тестирования и стратегии смягчения рисков на корпоративных веб-сайтах, кодифицируя практики, которые компании, такие как Anthropic, OpenAI и Google DeepMind, уже применяют на добровольной основе.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...