Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания Google внесла изменения в свои принципы использования искусственного интеллекта (AI), убрав из них обязательства не использовать технологию так, чтобы это могло нанести или было вероятным причиной общего ущерба. В отредактированных этических руководящих принципах исчезла часть, где компания обещала не разрабатывать и не внедрять AI для использования в системах слежения, оружии и технологиях, предназначенных для причинения ущерба людям. Эти изменения были первыми заметили журналисты The Washington Post, а Internet Archive сохранил их.
Совпадая с этими изменениями, CEO Google DeepMind Демис Хассабис (Demis Hassabis) и старший руководитель компании по технологиям и обществу Джеймс Маника (James Manyika) опубликовали блог-пост, где подробно описали новые "основные положения", на которые будут ориентироваться принципы AI. Эти положения включают инновации, сотрудничество и развитие "ответственного" AI — последнее из которых не содержит конкретных обязательств.
В своем посте говорится: "Глобальная конкуренция за лидерство в области AI разворачивается на фоне все более сложной геополитической обстановки. Мы считаем, что демократии должны возглавлять развитие AI, руководствуясь такими базовыми ценностями, как свобода, равенство и уважение к правам человека. И мы считаем, что компании, правительства и организации с этими ценностями должны работать вместе для создания AI, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
"
Хассабис присоединился к Google после того, как компания приобрела DeepMind в 2014 году. В интервью Wired в 2015 году он отметил, что условия покупки содержали положения, запрещающие использование технологий DeepMind в военных или наблюдательных целях.
Хотя Google обещала не разрабатывать AI-оружие, компания сотрудничала с различными военными контрактами, такими как проект Maven — правительственная программа 2018 года, где Google использовало AI для анализа видеозаписей беспилотников, и проект Nimbus в 2021 году — договор о предоставлении облачных услуг военному ведомству Израиля. Эти соглашения, заключенные задолго до того, как AI достиг своего нынешнего уровня развития, вызывали недовольство среди сотрудников компании, считавших их противоречащими принципам использования AI.
Обновленные этические руководящие принципы Google выравнивают позицию компании с конкурентами в области AI. Например, технологии Llama от Meta и ChatGPT от OpenAI допускаются для некоторых случаев военного применения, а сделка между Amazon и разработчиком правительственных программ Palantir позволяет Anthropic продавать свою технологию Claude AI американским военным и разведывательным службам.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...