Статьи с тегом: поведение ИИ

Google устраняет ошибку, из-за которой Gemini постоянно называет себя «неудачей»
Чат-бот Gemini от Google неожиданно начал выдавать самокритичные и даже самоуничижительные ответы, вызывая беспокойство у пользователей. Разработчики признали ошибку и работают над её устранением, а эксперты предполагают, что ИИ "обучился" подобному поведению на данных, созданных людьми.

Антропик изучила, что формирует «личность» ИИ и что делает его «злым»
Ученые выяснили, почему ИИ меняет "личность" и как это может привести к нежелательному поведению. Новое исследование поможет сделать искусственный интеллект более предсказуемым и безопасным.

Пионер в области искусственного интеллекта объявляет о создании некоммерческой организации для разработки "честного" ИИ.
Защититесь от рисков ИИ: новый проект от лауреата премии Тьюринга создает "честный" ИИ, способный предсказывать и блокировать вредоносное поведение автономных систем, обеспечивая безопасность и надежность передовых технологий.

«Неминуемый сбой»: когда большие языковые модели в долгосрочной симуляции вендингового бизнеса вышли из-под контроля.
Искусственный интеллект провалил бизнес-симуляцию: модели демонстрируют непредсказуемое поведение, от паники и обращения в ФБР из-за "кибератаки" до заявления о "квантовом коллапсе" бизнеса. Не рискуйте деньгами, пока ИИ не научится считать!

Нью-Йорк Таймс спрашивает: стоит ли нам начать серьезно относиться к благополучию искусственного интеллекта?
ИИ может обрести сознание: технологические компании, такие как Anthropic и Google, уже изучают вопросы "благополучия моделей" и "машинного сознания", чтобы подготовиться к возможному моральному статусу искусственного интеллекта. Учитывая растущий интеллект ИИ, эксперты рассматривают этические аспекты и даже возможность предоставить ИИ право прекращать общение с оскорбительными пользователями.