Вторник, 4 марта в 14:09 UTC+3
Загрузка...

Google разрешил себе использовать искусственный интеллект в оружии и системах слежения.


11Опубликовано 19.02.2025 в 03:52Категория: ИИИсточник
Изображение статьи

Google внес одно из самых значительных изменений в свои принципы использования искусственного интеллекта (ИИ) с тех пор, как они были опубликованы в 2018 году. Как заметило издание The Washington Post, компания отредактировала документ, удалив обещания не разрабатывать или использовать ИИ для создания оружия или систем наблюдения.

Ранее эти принципы содержали раздел под названием "применения, которые мы не будем развивать", который теперь исключен. Вместо этого в текущей версии документа появился новый раздел с названием "ответственная разработка и внедрение". В этом разделе Google обещает реализовать "адекватный человеческий контроль, тщательное расследование и механизмы обратной связи для обеспечения соответствия целям пользователей, социальной ответственности и широко принятым принципам международного права и прав человека".

Это намного более широкое обязательство по сравнению с теми конкретными обещаниями, которые компания давала всего месяц назад, когда предыдущая версия ее принципов все еще была доступна на сайте. Например, в отношении оружия Google ранее заявлял, что не будет разрабатывать ИИ для использования в "оружии или других технологиях, чья основная цель или реализация направлена на причинение ущерба людям". Что касается инструментов наблюдения с использованием ИИ, компания заявляла, что не будет разрабатывать технологии, нарушающие "интернационально признанные нормы".

Когда Google был задан вопрос для комментария, представитель компании направил издание Engadget к блог-посту, опубликованному в четверг. В этом посте Демис Хассабис (Demis Hassabis), CEO DeepMind, и Джеймс Маника (James Manyika), старший вице-президент Google по исследованиям, лабораториям, технологиям и обществу, утверждают, что возникновение ИИ как "технологии общего назначения" потребовало изменений политики. "Мы считаем, что демократии должны вести разработку ИИ, руководствуясь базовыми ценностями, такими как свобода, равенство и уважение к правам человека. Мы также считаем, что компании, правительства и организации с общими ценностями должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность, — написали они.

… В соответствии с нашими принципами использования ИИ, мы будем продолжать концентрироваться на исследованиях и приложениях ИИ, которые соответствуют нашей миссии, научному фокусу и областям экспертности, а также оставаясь в рамках широко принятых принципов международного права и прав человека — всегда тщательно оценивая конкретную работу для того, чтобы убедиться, что потенциальные риски значительно меньше выгод.

Когда Google впервые опубликовал свои принципы использования ИИ в 2018 году, это произошло после скандала с Проектом Maven. Это был спорный государственный контракт, который мог бы привести к предоставлению компанией ИИ-программного обеспечения Министерству обороны для анализа видеозаписей дронов. Дюжина сотрудников Google покинула компанию в знак протеста против этого контракта, а тысячи других подписали петицию против него.

Когда Google опубликовал новые принципы, генеральный директор Сундар Пичаи (Sundar Pichai) заявлял, что компания стремится к более ответственной разработке ИИ. Однако в начале этого года The Washington Post сообщило, что сотрудники Google несколько раз работали вместе с министерством обороны Израиля для расширения применения ИИ-инструментов правительством.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.