"Разрушительный потенциал": страны G7 согласились принять стандарты использования ИИ, — СМИ

нейросеть, ИИ, сингулярность, искусственный интеллект
Фото: wallha.com | По мнению лидеров стран G7, нейросети могут вносить дезинформацию

По мнению руководителей стран "Большой семерки" искусственный интеллект, способный генерировать контент, может использоваться в политических целях.

Лидеры стран "Большой семерки" на 49-м саммите в Хиросиме, Япония договорились о необходимости управления в соответствии с ценностями международного клуба в сфере генеративного искусственного интеллекта (ИИ). Об этом сообщил в субботу, 20 мая, американский телеканал Bloomberg.

Согласно сообщению, лидеры стран обеспокоены разрушительным потенциалом, которым, по их мнению, обладают стремительно развивающиеся технологии.

Так, в рамках "Хиросимского процесса" правительства намерены провести обсуждение этого вопроса на уровне кабинетов министров и представить выводы к концу текущего года.

Чтобы сделать развитие ИИ ориентированным на человека и заслуживающим доверия, премьер-министр Японии Фумио Кисида призвал к сотрудничеству в обеспечении безопасного трансграничного потока данных, пообещав внести финансовый вклад в эти усилия.

Что не так с ИИИ

Опасения заключаются в том, что технологии, которые могут создавать человекоподобный текст, а также генерировать изображения и видео, могут быть использованы в политических целях, внося дезинформацию. Поэтому предлагается установить контроль над развитием технологий.

В частности сообщается, что руководство OpenAI International Business Machine Corp. обратились на этой неделе к сенаторам США с требованием ужесточить регулирование ИИ.

Отметим также, что во вторник, 16 мая, Всемирная организация здравоохранения в своем заявлении отметила, что слишком быстрое внедрение ИИ может привести к риску медицинских ошибок. В ВОЗ полагают, что это может подорвать доверие к этой технологии и отсрочить ее внедрение.

Напомним, глава компании Berkshire Hathaway заявил, что создание нейросетей сравнимо с изобретением атомного оружия, поскольку он несет в себе столько же опасностей, сколько и атомная бомба, если попадет не в те руки.

Ранее пионер в области искусственного интеллекта, Джеффри Хинтон заявил, что развивающиеся нейросети несут в себе больше рисков для человечества. По его мнению даже климатическую проблему решить проще, чем проблему рисков, которые несет ИИ.