Top.Mail.Ru
РусРусский язык
Этика и робототехника: насколько совместимы понятия? Рассказывает ученый Пермского Политеха

Этика и робототехника: насколько совместимы понятия? Рассказывает ученый Пермского Политеха

Роботы и, шире говоря, автономные интеллектуальные системы все больше проникают в нашу жизнь. Мы вынуждены делить с ними рабочее пространство, дорогу и дом. Человек научил роботов говорить, реагировать на прикосновения и «выражать эмоции». Но как мы чувствуем себя, когда общаемся с таким похожим на человека неодушевленным объектом? Готовы ли мы доверить ему заботу о ребенке или пожилом родственнике? Кандидат философских наук, доцент кафедры философии и права ПНИПУ, эксперт в области этики роботов Елена Середкина рассказывает, что такое социальный робот, как его программируют на добрые поступки и кто отвечает за «моральный сбой» искусственного интеллекта.

Что такое «социальный робот»

Роботы в зависимости от цели их создания выполняют разные роли. Промышленные воспринимаются только как инструменты — их внедряют, чтобы увеличить производство, повысить качество продукции, сократить человеческие жертвы.

— Социальных роботов наделяют кардинально другими задачами, они отличаются от домашней техники или оборудования на заводе, потому что напрямую взаимодействуют и общаются с человеком в социальной среде и становятся социальными агентами, — объясняет Елена Середкина.

Роботы не устают, не болеют, не раздражаются и могут стать отличными социальными работниками — нянями, сиделками, администраторами, гидами, консультантами, курьерами и др. Они умеют вести диалог, в том числе с соблюдением человеческих норм. Например, приветствуют в начале беседы, а после нее — прощаются, выявляют потребности, выполняют необходимые задачи, распознают эмоции и соответствующе реагируют на них.

У машины смыслов нет

Но при этом в роботах заложены четкие инструкции действий и реакций. Если происходит событие, выходящее за рамки их программы, то они теряются, глючат, то есть не могут действовать вне шаблона. Даже примитивные для человека решения стоят больших усилий и времени для робота. Чтобы положить предмет на заставленную полку, мы просто пододвигаем любую вещь и кладем на освободившееся место нужный предмет. Тут нет никаких мыслительных затрат, всё происходит на автомате за секунды. Роботу придется вместо одной задачи обработать несколько (при условии, что этот алгоритм в нем запрограммирован).

Эксперт в области этики роботов рассказывает, что андроиды не обладают интуитивным знанием, когда люди просто понимают что-то и все. Представьте ситуацию: человек в сильной стрессовой ситуации начинает смеяться, так у него срабатывает защитный механизм. Робот фиксирует смех как проявление положительной эмоции, но не понимает, что его причина — критическое нездоровое состояние человека.

— Роботы не работают со смыслами, и не дают каких-то субъективных оценок, связанных, например, с эстетикой. Мы наделяем предметы смыслами и переносим их от одного объекта к другому, даже если они абсолютно разные. Допустим, дизайнер создал причудливое кресло на одной ножке — мы просто понимаем это. Робот знает, что кресло — это объект на четырех ножках со спинкой и специальным углублением. Но он не может найти этот смысл в дизайнерской веще, потому что она не соответствует встроенному в него шаблону, — рассказывает Елена Середкина.

Если у робота нет этических принципов — это проблема?

Искусственный интеллект превосходит способности человека. Например, алгоритмы анализируют огромные массивы данных в режиме реального времени, поэтому могут самостоятельно принимать решения вместо нас. Но насколько это этично и безопасно? Есть риск, что алгоритмы сделают ошибочный выбор, подвергнут опасности отдельного человека или целые социальные группы.

— Яркая иллюстрация такой ситуации показана в фильме «Я, робот» (2004). Главный герой Спунер ненавидит роботов, потому что во время аварии робот спас не маленькую девочку, а его — взрослого сильного мужчину. С точки зрения статистики, шансы Спунера на выживание были выше. Так что это было логичное, рациональное и морально безответственное решение бездушного искусственного интеллекта. Человеческая мораль предполагает прямо противоположное: первым спасать ребенка, как более слабое существо, — приводит пример кандидат философских наук ПНИПУ Елена Середкина.

Роботы и мораль

Елена Середкина поясняет, что в настоящее время ученые рассматривают область этических аспектов робототехники с трех сторон.

Робоэтика — это прикладная этика профессионального сообщества, то есть специалистов-робототехников и всех, кто вовлечен в процесс создания, проектирования и производства роботов.

— Инженеры не могут самостоятельно формулировать этические принципы робототехнической деятельности, поэтому им на помощь приходят гуманитарные науки, в первую очередь, философия и этика. В широком смысле слова, робоэтика изучает отношения между наукой, техникой и обществом. В узком смысле она имеет дело с этическими вопросами, возникающими в результате интеграции роботов в общество. Это связано с необходимостью защищать человеческое достоинство и личную неприкосновенность; ограничивать социальное неравенство, которое может возникнуть в процессе использования социальных роботов, — поясняет доцент кафедры философии и права ПНИПУ Елена Середкина.

Этика робототехники — это разработка морального кода в виде программы, которая устанавливается в робота. Люди считают, что робот ведет себя морально, если его действия соответствуют вложенной в него инструкции, и аморально, совершая нечто недопустимое по причине, например, технического сбоя или некомпетентного программирования. По этому принципу робот ничего не знает о морали и просто следует приказам, будь то плохо или хорошо, у него нет «самосознания».

Эксперт Пермского Политеха рассказывает, что третье значение — этика роботов, наделяет их статусом полноценных моральных агентов. То есть искусственный интеллект сам принимает решения, делает моральный выбор и несет ответственность за свои поступки подобно человеку. В реальности таких роботов нет, и они не появятся в ближайшем будущем.

Елена Середкина говорит, что сейчас во всем мире мораль роботов определяется, как корректное программирование робота инженерами с учетом знания специалистов по этике.

Как написать программный код морали для роботов

Основной вопрос этики звучит так: быть моральным — значит совершать правильные поступки или быть хорошим? В зависимости от ответа выделяют два подхода к программированию социальных роботов.

Нисходящий заключается в том, что этику воспринимают, как изучение правильного поведения. Прослеживается аналогия с правовой системой: если робот следует определенным законам, то он моральный. Главная задача программиста — разработать набор конечных правил. Но в этом подходе есть недостаток — как применить это на практике с учетом возможных последствий.

— Представьте, что робота запрограммировали «не лгать», он попадает в руки врагов и честно выдает секретную информацию. Он вроде бы следует моральному принципу, но при этом теряет свою ценность, наносит вред, — приводит пример эксперт Пермского Политеха в области этики Елена Середкина.

Похожая ситуация складывается, если запрограммировать робота по одному из законов робототехники, о которых говорил писатель-фантаст Айзек Азимов — робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Большой вопрос вызывает пункт о «бездействии». Не приведет ли это к тому, что робот будет постоянно вмешиваться в жизнь людей, спасая их от потенциальной угрозы? А что если бездействие робота предотвращает сиюминутный вред для одного человека, но ставит под угрозу будущее многих? В обоих случаях искусственный интеллект наносит непреднамеренный вред, он не знает о вероятных угрозах, рисках и последствиях.

Второй подход к программированию социальных роботов восходящий основывается на этике добродетели и обучении методом проб и ошибок. Главный вопрос звучит не «что я должен делать?», а «каким я должен быть?». Акцент с хороших и плохих поступков переносится на хороших и плохих роботов.

Елена Середкинина объясняет, что при этом подходе действует моральный партикуляризм — искусственному интеллекту для правильного поведения недостаточно просто следовать конечному набору универсальных правил, потому что их не может быть. Каждый случай уникален. Например, общих утверждений в формате «ударить женщину — аморально» или «помочь человеку —благо» нет. Создать программное обеспечение по такому подходу нельзя.

В итоге разработчики следуют гибридному подходу в программировании морально компетентных роботов, выбирая сильные стороны разных этических концепций.

Кто несет ответственность за «моральный сбой» у робота

Это очень сложный вопрос, который пока не решен. Тем не менее, уже сейчас можно выделить главный вектор развития.

— Приведу пример с беспилотными автомобилями. Вероятно, что в авариях при участии таких транспортных средств будет какая-то форма совместной ответственности, как в системе строительства. Если беспилотный автомобиль кого-то сбивает, вина распределяется между всеми заинтересованными сторонами: проектировщики умных дорог, производитель автомобиля, конструкторы транспортных средств, программисты искусственного интеллекта, пассажир, поведение жертвы до происшествия и др., — рассуждает Елена Середкина.

Эти роли, в свою очередь, разделены между сотнями или тысячами людей, поэтому важно посредством законов и накопленного опыта регулировать степень ответственности каждой стороны при взаимодействии социальных роботов с людьми.

Однако, анализ этических кодексов ИИ в Европе, США, Китае, Японии и России вскрывает одну явную тенденцию. Этические спецификации для искусственного интеллекта нового поколения начинаются с очень четкой предпосылки, согласно которой технологии всегда должны находиться под контролем людей, и только люди обладают полными полномочиями по принятию решений. Эксперт в области этики роботов Елена Середкина подчеркивает, что в этом смысле не идет речь об автономии машинного интеллекта. Этический кодекс ИИ в России также опирается на эту моральную установку.

Роботы и дети

Наблюдая или взаимодействуя со слишком человекоподобным роботом, взрослый человек испытывает отторжение вплоть до отвращения почти на бессознательном уровне. Елена Середкина объясняет, что это феномен «зловещей долины». Его открыл японский ученый-робототехник Масахиро Мори и назвал так из-за характерного «провала» на графике симпатии. Внезапное психологическое и когнитивное отторжение появилось из-за несоответствия между гиперреальной внешностью человека и нереалистичных движений робота. Сегодня робототехнические компании и ученые пытаются разрешить эту проблему: должен ли робот полностью повторить нас или достаточно обозначить некоторые человеческие черты в строении.

Дети гораздо быстрее адаптируются к новым технологиям, включая антропоморфных (человекоподобных) роботов, потому что это их реальность. Они с младенческого возраста погружены в цифровую среду.

— В 2019 году на Всемирной робототехнической конференции в Пекине самые большие павильоны посвятили сервисным роботам для образовательных целей. И в них было очень много китайских детей. Если юное поколение с раннего возраста взаимодействует с роботами, то вряд ли последние будут вызывать у них отторжение в будущем. Разумеется, при условии, что роботы станут более совершенными. В первую очередь, я имею в виду не внешний вид, а «функционал» (распознавание лиц и объектов, расширенная диалоговая база и др.), — поясняет эксперт Пермского Политеха Елена Середкина.

С одной стороны, роботы в учебе вызывают интерес у детей, привлекают внимание и не дают «летать в облаках». Они могут эффективно настроить подачу знаний с учетом любого возраста в экспериментальной, игровой или другой форме. Способны повторять тему «с энтузиазмом» до тех пор, пока она не усвоится, выбирают задания по индивидуальным особенностям и интересам детей. У роботов нет предвзятого отношения к ребенку, и он не наградит осуждающим взглядом за неверный ответ.

С другой стороны, есть ряд рисков. Елена Середкина приводит слова исследовательницы Шерри Таркл, что взаимодействие с антропоморфным роботом разрушает человеческое общение как таковое. Роботы не умеют дружить, они предлагают только иллюзию отношений.

Учеба с роботом со временем приводит к тому, что дети начинают частично копировать его манеру «общения». Поведение ухудшается, дети не понимают тонкости коммуникации — что делать, когда диалог с живым человеком не выстраивается, как нужно. То есть они не учатся гибкости общения с учетом статуса, мировоззрения, желаний и настроения людей-собеседников.

Кроме того, если в памяти робота хранится «досье» на ребенка, то эту информацию важно защищать от взлома третьими лица. Учитель-человек многое знает о своих учениках, но влезть к нему в голову невозможно. А еще он наделен навыком креативности и душевности, которые часто становится ключевым фактором в раскрытии способностей детей. Живой учитель не просто воспроизводит контент, но становится наставником на пути человека, считает Елена Середкина.

Роботы для пожилых людей

По данным Росстата к 2046 году количество пожилых людей в России достигнет 37,4 млн человек, это 26.9% населения. Такие показатели побьют рекорд 2018 года перед началом пенсионной реформы (25,8%). При этом более молодое поколение не сможет оставить работу и посвящать много времени уходу за родственниками. В связи с объективным фактом старения населения и нехваткой ресурсов (в том числе человеческих) в недалеком будущем начнет активно развиваться ассистивная робототехника.

Ассистивные роботы (разновидность социальных) создаются, чтобы помогать людям с ограниченными возможностями, для которых выполнение даже простых бытовых задач становится сложным. Такие роботы легко позвонят родственникам по видеосвязи, достанут вещь с полки, поднимут с пола предмет, откроют двери, помогут встать с постели и передвигаться по дому или улице, сокращая риск падения.

Некоторые ассистивные роботы способны заменить медицинских работников в уходе за пациентами — они напоминают о приеме таблеток, измеряют жизненные показатели, при необходимости вызывают «скорую». Такие «домашние помощники» улучают качество жизни людей и помогают стать более независимыми.

— Я отслеживаю несколько крупных научно-исследовательских проектов в этой области. Среди них — немецкий проект «Оставаться молодым вместе с роботом JuBot». Его цель — разработать универсального робота-компаньона для пожилых людей. Он не только выполняет какие-либо бытовые действия, но и поддерживает диалог с человеком, то есть заменяет сиделку. При этом является частью более общей технологической инфраструктуры (умные дома), — рассказывает доцент кафедры философии и права Пермского Политеха Елена Середкина.

В умные дома встроены интеллектуальные технические системы: от виртуальных помощников до видеодомофонов. Они облегчат жизнь людям любого возраста, но особенно полезны для пожилых людей и их родственников. Например, умный термостат автоматически включает и выключает отопление в определенное время или при достижении установленной температуры, а родственники могут настроить его удаленно, находясь вдали от дома.

Также работает система освещения и управления бытовыми приборами. Это удобно, экономит электроэнергию и даже может спасти от чрезвычайных ситуаций. Особенно, если пожилые родные, уходя из дома, часто забывают выключить свет или электрическую плиту. Еще одна «фишка» умного дома — замки без ключа, которые работают на основе распознавания отпечатков пальцев или пин-кодов, что делает вход более безопасным и менее утомительным, например, для людей с артритом.

— В настоящее время у инженеров и программистов нет данных, чтобы хотя бы предположить о возможности появления высоко антропоморфного робота с полноценной моральной агентностью. Когда это случится, мы столкнемся с новыми еще более серьезными моральными вызовами. А пока роботы — это качественные помощники, которые упрощают нашу жизнь, но по-настоящему не заменят человеческого общения и тепла, — подводит итог доцент кафедры философии и права ПНИПУ Елена Середкина.


18.12.231389

Похожие Новости

Есть новость?
Предложи нам!

Предложить новость