Опасное использование ИИ: прогнозы, предупреждение и защита

in #ru7 years ago

Стостраничный отчёт The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation стал результатом совместной работы 26 авторов из 14 научных учреждений, активистов и представителей промышленности.

Авторы отчёта отмечают, что возможности ИИ и ML (машинного обучения) растут беспрецедентными темпами. Эти технологии уже лежат в основе множества успешных приложений, начиная от машинного перевода и до анализа изображений в медицинской практике. Ещё большее число приложений сейчас находится в стадии разработки. Между тем лишь немногие задумываются о том, как ИИ может использоваться людьми с недобрыми намерениями. В отчёте рассматриваются потенциальные угрозы безопасности, связанные со злонамеренным использованием технологий ИИ, а также предлагаются способы прогнозирования таких угроз, их предупреждения или устранения.

Авторы попытались найти решение вопроса: как установить долгосрочный баланс между атакующими и теми, кто вынужден защищаться? Но честно признали, что это окончательного ответа на этот вопрос нет. Поэтому авторы сосредоточились на рассмотрении сценариев атак, с которыми человечество скорее всего столкнётся в самое ближайшее время, если не будут разработаны адекватные защитные меры.

В частности, предлагается:

  • Политики должны работать в контакте с разработчиками с целью изучения, предупреждения и устранения потенциально опасного использования ИИ.
  • Исследователи и инженеры, занимающиеся разработками в области ИИ, должны самым серьёзным образом размышлять о возможных негативных сценариях, в которых могут использоваться их разработки. Оценка угроз должна влиять на расстановку приоритетов в исследовании, разработку правил, а также предусматривать проактивное взаимодействие с соответствующими структурами в ситуациях, когда можно прогнозировать вредоносные применения новой разработки.
  • Идентифицировать лучшие практики для разрешения проблемы злонамеренного использования новых разработок. Например, наработки такого рода уже есть в области компьютерной безопасности; вероятно, их можно внедрить и в практику разработки ИИ.
  • Активно расширять круг заинтересованных лиц и экспертов, которые бы могли участвовать в дискуссиях об опасных применениях ИИ и в разработке решений возникающих в связи с этим проблем.

Важный вывод, который напрашивается из чтения доклада: прошло время, когда можно было рассуждать об опасностях ИИ в каком-то неопределённом будущем. Сейчас мы все уже находимся в ситуации, когда связанные с ИИ опасности перешли из разряда гипотетических в разряд реальных. Настало время, когда следует переходить от научных дискуссий к практическим защитным действиям.

Скачать отчёт можно здесь, англ., pdf

@infocomm

Sort:  

@pressa,

My apologies, I can't speak Russian. I was wondering, though ... do you have the ability to help out my friend Cryptogee? He's a good guy and I'm sure he'll return the favor here on Steemit.

https://steemit.com/steemit/@cryptogee/warning-avoid-the-dead-zone-don-t-let-vested-sp-drop-to-zero

Coin Marketplace

STEEM 0.20
TRX 0.15
JST 0.030
BTC 65185.94
ETH 2630.94
USDT 1.00
SBD 2.83