Нейросети довольно часто ошибаются, что может привести к необратимым последствиям, особенно в критических ситуациях, об этом рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов изданию РИА Новости.
«Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна. Мы, как человеческий вид, к такому не были готовы. Если что-то хорошо, красиво говорит, особенно, если это компьютер, значит, это нечто разумное, и мы склонны ему верить, а оно может ошибаться, и нередко», - говорит эксперт.
Существует особое понятие — overreliance (чрезмерное доверие).
Устройства или электронные помощники оптимизируют некоторые процессы или облегчают рутинный труд человека, поэтому человек начинает излишне на них полагаться.
«Это вероятностные алгоритмы, они имитируют человеческую речь, текст, написанный человеком, но это не всегда верно фактологически, а система всё равно уверенно подает нам это как истину — такие ситуации называются галлюцинациями. И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять — это главный риск», - объяснил Тушканов.
Фото: freepik.com
Комментарии /4
После 22:00 комментарии принимаются только от зарегистрированных пользователей ИРП "Хутор".
Авторизация через Хутор: