Поддержать команду Зеркала
Беларусы на войне
  1. «Вся партия антибиотика изъята по всей стране». Главврач прокомментировала смерть роженицы
  2. Кто те девушки, которые «случайно» оказались в Mak.by во время визита Лукашенко? Узнали
  3. «Ни фига себе». В TikTok рассказали о курьезном случае по «тунеядству»: в истории — попадание в базу «иждивенцев» и звонки из милиции
  4. Санаторий, куда Азаренок «отправлял» беларусов и беларусок вместо Дубая, обещает людям то, что невозможно. Вот чем заманивает здравница
  5. Доллар стремительно дорожает: что будет с курсами в середине марта? Прогноз по валютам
  6. Помните трагедию в Ельске, где 14-летняя девочка впала в кому и умерла? Похоже, ей дали тот же антибиотик, что и роженице в Дзержинске
  7. Минчанка забронировала столик в престижном ресторане на 8 марта. В преддверии праздника ее попросили внести депозит — 800 рублей
  8. Девушки попали в неприятности после того, как спели «Матушка-земля» в гардеробе кафе
  9. Стало известно, куда трудоустроился один из экс-сотрудников Службы безопасности Лукашенко, — «Бюро»
  10. В Могилеве и окрестностях — вспышка очень заразного вируса, особенно опасного для некоторых людей
  11. ГосСМИ Ирана назвали нового верховного лидера страны
  12. Минчанин подарил отцу квартиру и гараж. Прокурор пришел с вопросами к новому владельцу, тот на них ответил неправильно — сделку отменили
  13. «Мы с адвокатом сидели в кабинете и все слышали». Экс-сотрудник Betera пришел судиться с бывшим работодателем, а тот устроил кол-центр


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.