Вторник, 4 марта в 11:21 UTC+3
Загрузка...

Великобритания убирает слово «безопасность» из названия своего AI-учреждения и заключает партнерство с Anthropic.


11Опубликовано 17.02.2025 в 18:53Категория: ИИИсточник
Изображение статьи

Анонимный читатель ссылается на отчет TechCrunch: британское правительство стремится активизировать экономику и промышленность с помощью искусственного интеллекта (ИИ), и в рамках этой цели оно перепрофилирует учреждение, созданное чуть более года назад для совершенно другой задачи. Сегодня Министерство науки, промышленности и технологий объявило о переименовании Института безопасности ИИ в «Институт кибербезопасности ИИ» (AI Security Institute). При этом первые буквы остались теми же, как и URL. Вместе с этим учреждение переключится с исследования рисков существования и предвзятости в больших моделях языка на укрепление защиты от угроз кибербезопасности, связанных с ИИ.

Помимо этого, правительство также объявило о новом партнерстве с компанией Anthropic. Хотя конкретные услуги не были анонсированы, меморандум о взаимопонимании (MOU) указывает на то, что стороны будут «исследовать» использование ИИ-ассистента Claude от Anthropic в государственных услугах; компания также планирует участвовать в научных исследованиях и экономических моделях. В Институте кибербезопасности ИИ она предоставит инструменты для оценки возможностей ИИ с точки зрения выявления рисков безопасности.

Anthropic является единственной компанией, анонсированной сегодня – совпадение с недельными мероприятиями по ИИ в Мюнхене и Париже. Однако это не единственный партнер правительства. Серия новых инструментов, представленных в январе, была разработана при поддержке OpenAI. (На тот момент министр науки, технологий и цифровой инфраструктуры Питер Кайл заявил, что правительство планирует сотрудничать с различными основными компаниями ИИ.)

«Изменения, которые я анонсирую сегодня, представляют собой логический шаг в подходе к ответственному развитию ИИ – помогая нам активизировать потенциал ИИ и расти экономически как часть нашей программы изменений», – заявил Кайл.

«С самого начала наш фокус был на безопасности, мы собрали команду ученых для оценки серьезных рисков для общества, – добавил Эйан Хогарт, остающийся председателем института. – Наше новое направление против преступного использования ИИ и углубляющееся сотрудничество с национальным сообществом безопасности означают следующую стадию борьбы с этими угрозами».

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.