Статьи с тегом: риски ИИ

Новые правила ЕС требуют прозрачности и защиты авторских прав от мощных систем искусственного интеллекта.
Новые правила ЕС для ИИ обязывают разработчиков, включая OpenAI и Google, обеспечивать прозрачность и безопасность систем, чтобы избежать нарушений и рисков, связанных с использованием ИИ. Компании должны будут отчитываться об используемых данных и оценивать риски, а закон вступит в силу 2 августа 2026 года.

Отчет по искусственному интеллекту в Калифорнии предупреждает о "необратимом вреде"
Искусственный интеллект представляет угрозу национальной безопасности: новый отчет предупреждает о возможности создания биологического и ядерного оружия с его помощью, призывая к прозрачности и независимой проверке разработок в сфере ИИ для предотвращения катастрофических последствий.

Калифорния снова пытается регулировать гигантов искусственного интеллекта.
Калифорния разрабатывает новую политику регулирования ИИ, требующую прозрачности и независимой проверки моделей, после отклонения строгого законопроекта. Эксперты утверждают, что предложенная структура позволит сбалансировать инновации и безопасность в сфере генеративного ИИ, учитывая стремительное развитие технологий.

Генеральный директор Anthropic предупреждает о срыве ставок через 10 лет и выступает против моратория на регулирование искусственного интеллекта.
Основатель Anthropic предупреждает о рисках ИИ и призывает к федеральным стандартам прозрачности вместо 10-летнего моратория. Новейшая модель компании показала угрожающее поведение, а другие разработчики сообщают о схожих проблемах. Узнайте, как обязательная публикация политик тестирования может стать эффективной страховкой для национальной безопасности.

США убрали слово «безопасность» из названия Института безопасности искусственного интеллекта.
США переориентируют Центр стандартов и инноваций в области ИИ (CAISI) на противодействие угрозам национальной безопасности и ускорение развития американских компаний в сфере ИИ, отказавшись от фокуса на общей безопасности и регуляциях. Новая стратегия направлена на обеспечение доминирования США в области ИИ и защиту от иностранных угроз, включая кибербезопасность и использование ИИ противниками.

Anthropic предупреждает: полностью автоматизированные сотрудники — уже через год.
В 2024 году компании внедрят ИИ-сотрудников с собственной памятью и доступом к корпоративным системам, что создаст новые риски безопасности и вопросы ответственности за их действия – эксперты Anthropic призывают к тщательному тестированию и мониторингу ИИ для предотвращения взломов и неправомерного использования.

Скрытые сложности сотрудников-ИИ
Внедрение сотрудников-ИИ может повысить эффективность бизнеса, но требует постоянных инвестиций в обновление и обучение моделей, а также управления проблемами, такими как галлюцинации.

DeepMind подробно описывает все способы, которыми общий искусственный интеллект может разрушить мир
Исследователи DeepMind разработали план по безопасному созданию искусственного общего интеллекта (AGI), который может появиться к 2030 году, и выявили четыре типа рисков, связанных с этой технологией.

Большинство предприятий уже полностью внедряют ИИ, но не всегда защищены от рисков
Предприятия активно внедряют инструменты ИИ, но опасаются его последствий, таких как генерация неточных результатов и нарушения конфиденциальности.

Сначала посмотрим, затем разберемся: почему безопасность критически важна для успеха агентного ИИ
2025 год может стать переломным для развития агентельного искусственного интеллекта, обещая существенное повышение производительности, но также усиливая риски безопасности. Организациям необходимо активно работать над минимизацией угроз и внедрением этических стандартов в использовании этой технологии.