Мобильное приложение Xabar.uz для Android устройств. Скачать ×
IOS qurilmalar uchun Xabar.uz mobil ilovasi. Скачать ×

Религиозные объединения США сообщили об опасности искусственного интеллекта

Религиозные объединения США сообщили об опасности искусственного интеллекта

Фото: «360tv.ru»

Религиозные организации США выступили против использования искусственного интеллекта (ИИ). В своей декларации верующие выразили беспокойство по поводу вопроса о безопасности ИИ, в безобидности развивающихся технологий сомневаются и эксперты в данной области. Об этом сообщила «Российская газета».

Отмечается, что на сегодняшний день наиболее вероятную угрозу несет военное применение ИИ. В этой сфере стратегические решения все еще принимает человек, хотя в отдельных видах вооружения уже давно используются компьютеры.

«Наиболее возможные потенциальные угрозы сегодня — это военное применение. Например, дроны с распознаванием лица конкретного человека, которые находят нужную цель и могут произвести взрыв. При наличии взрывчатки и дрона можно буквально построить такое устройство у себя во дворе», — считает Евгений Колесников, директор Центра машинного обучения «Инфосистемы Джет».

Однако применение ИИ и его безопасность касается и повседневной жизни людей в современном обществе. Речь идет использования роботов в медицине, системах охраны, жизнеобеспечения и других.

Так, веб-поисковики и интернет-приложения, использующие системы машинного обучения, нередко сталкиваются с ошибками, которые нарушают права целых групп людей.

Например, компании Google пришлось приносить извинения за то, что при поиске изображений по запросам «горилла» или «шимпанзе» ИИ подбирал в том числе фото людей с темным цветом кожи. За это корпорацию обвиняли в расизме. К этой же категории опасностей можно отнести и утечки персональных данных, с которыми в последнее время нередко сталкивается Facebook.

Уязвимой областью применения ИИ являются системы «Умный дом», которые очень легко взломать человеку с простейшими навыкам программиста. Кроме того, есть шанс, что ИИ может не распознать самого хозяина «Умного дома» по его голосу или внешности (например, если человек заболеет) и не пустить его в собственный дом.

«Когда мы вплотную перейдем к системам обеспечения правопорядка, работающим автономно, то любая ошибка в распознавании человека (если, например, система примет его за преступника) может стоить ему жизни», — подчеркнул управляющий партнер Marketing Logic Дмитрий Галкин.

Комментарии 0

Зарегистрируйтесь, чтобы оставлять комментарии

Вход

Заходите через социальные сети