Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания Anthropic в четверг объявила о выпуске Claude Gov – продукта, разработанного специально для оборонных и разведывательных ведомств США. Модели искусственного интеллекта имеют более гибкие ограничения для использования правительством и обучены лучше анализировать секретную информацию.
Компания заявила, что анонсируемые модели "уже используются ведомствами на высшем уровне национальной безопасности США", и доступ к этим моделям будет ограничен государственными учреждениями, работающими с секретной информацией. Компания не подтвердила, как долго они находились в эксплуатации.
Модели Claude Gov специально разработаны для удовлетворения уникальных потребностей правительства, таких как оценка угроз и разведывательный анализ, как указано в блоге Anthropic. И хотя компания заявила, что они "прошли такое же строгое тестирование безопасности, как и все модели Claude", эти модели имеют определенные спецификации для работы в сфере национальной безопасности. Например, они "реже отказываются от обработки секретной информации", поступающей на вход, в отличие от Claude, ориентированного на потребительский рынок, который обучен выявлять и избегать подобного.
Модели Claude Gov также обладают лучшим пониманием документов и контекста в сфере обороны и разведки, а также лучшим владением языками и диалектами, имеющими значение для национальной безопасности.
Использование ИИ правительственными учреждениями давно подвергается критике из-за его потенциального вреда и последствий для меньшинств и уязвимых групп населения. Зафиксирован длинный список необоснованных арестов в нескольких штатах США из-за использования полицией технологии распознавания лиц, задокументированные случаи предвзятости в предиктивном анализе и дискриминация в государственных алгоритмах, оценивающих социальную помощь.
В течение многих лет также существует широкомасштабная полемика вокруг крупных технологических компаний, таких как Microsoft, Google и Amazon, разрешающих военным, особенно в Израиле, использовать их продукты на основе ИИ, с кампаниями и общественными протестами в рамках движения "Нет технологиям для апартеида".
Политика использования Anthropic конкретно указывает, что любой пользователь "не должен создавать или способствовать обмену незаконным или строго регулируемым оружием или товарами", включая использование продуктов или услуг Anthropic для "производства, модификации, проектирования, маркетинга или распространения оружия, взрывчатых веществ, опасных материалов или других систем, предназначенных для причинения вреда или гибели людей".
По крайней мере, одиннадцать месяцев назад компания заявила, что создала набор договорных исключений из своей политики использования, которые "тщательно откалиброваны для обеспечения полезного использования тщательно отобранными государственными учреждениями". Определенные ограничения, такие как кампании по дезинформации, разработка или использование оружия, создание систем цензуры и злонамеренные кибероперации, останутся запрещенными. Но Anthropic может решить "адаптировать ограничения на использование к миссии и правовым полномочиям государственного органа", хотя она будет стремиться "сбалансировать возможность полезного использования наших продуктов и услуг с минимизацией потенциального вреда".
Claude Gov – это ответ Anthropic на ChatGPT Gov, продукт OpenAI для государственных учреждений США, который был запущен в январе. Это также часть более широкой тенденции, когда крупные компании, занимающиеся ИИ, и стартапы стремятся укрепить свой бизнес с помощью государственных учреждений, особенно в условиях неопределенной нормативной базы.
Когда OpenAI объявила о ChatGPT Gov, компания заявила, что за последний год более 90 000 сотрудников федеральных, штатных и местных органов власти использовали ее технологию для перевода документов, создания сводок, разработки политических записок, написания кода, создания приложений и многого другого.
Anthropic отказалась делиться подобными цифрами или примерами использования, но компания является частью программы FedStart от Scale AI. Scale AI также работает с другими государственными организациями.
В течение последнего года Scale AI подписала контракты с более чем 30 государственными агентствами и организациями. И вот еще несколько примеров:
Anthropic является частью растущей экосистемы компаний, работающих над разработкой и внедрением искусственного интеллекта для государственных целей. Эта тенденция, вероятно, будет продолжаться в ближайшие годы, поскольку правительства все больше осознают потенциальные преимущества искусственного интеллекта.
``` **Пояснения:** * **`` теги:** Используются для абзацев текста. * **`
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...