Домашний робот может человека покалечить, чатбот — оскорбить. Автономные системы становятся участниками человеческих конфликтов, иногда же сами их провоцируют. 18 марта 2018 года беспилотный автомобиль компании «Убер» совершил смертельный наезд на женщину, переходившую дорогу в одном американском городе. Впервые пешеход принял смерть от алгоритма — кто за это несет ответственность?
Ответ на этот вопрос срочно необходим, потому что технологии в современном мире распространяются все быстрее и новых инцидентов не избежать. Но было бы иллюзией полагать, что такой ответ может быть чисто техническим. Обеспечить полное отсутствие конфликтов во взаимодействии человека и машины, создать некую «добрую машину» нельзя. Возможная альтернатива: сделать так, чтобы пользователь даже спонтанно не присваивал машине статус лица, наделенного моралью. Достичь этого можно, лишь прибегнув к случайному при разработке алгоритма; лишь случайный выбор способен избавить машину от ответственности, которую ей приписывают пользователи.
29 января в музее современного искусства PERMM на лекции Алексей Гринбаум расскажет, как подобные этические вопросы ставятся и решаются, с одной стороны, программистами — технически, в коде; с другой стороны, обществом — политически и этически, через вычленение мотивов, соединяющих цифровую реальность и миф.