Быстрое развитие сферы мозг-машинных интерфейсов и нейропротезирования постепенно подводит нас к революции в методах лечения и поддержке парализованных людей. В то же время эти технологии в будущем могут найти себе более универсальное применение и стать отправной точкой для дальнейшей эволюции человечества и его перехода в новый вид – киборгов. Но перед тем, как мы достигнем таких высот, нам необходимо убедиться в том, что подобные нейронные устройства совершенно надежны, безопасны и полностью защищены от внешнего влияния – хакерский атак, если проще.
С мечтами о нашем светлом кибернетическом будущем исследователи из женевского Центра био- и нейроинжиниринга Висса в Швейцарии (Wyss Center for Bio and Neuroengineering) опубликовали на портале Science свою работу «Help, hope, and hype: Ethical dimensions of neuroprosthetics». Задача ее авторов заключается не только в описании тех возможностей, которые перед нами откроет сфера нейротехнологий, но и в повышении общественного внимания к тем опасностям, которые могут подстерегать нас на пути к этому сверхвысокотехнологичному будущему. И немаловажным стоит отметить, что авторы разработали несколько путей, которые позволят смягчить потенциальные проблемы еще до их возникновения.
Не отметить быстрое развитие нейротехнологий становится невозможным уже сегодня. Инженерами и исследователями ведется активная разработка и совершенствование мозг-машинных интерфейсов, которые позволят парализованным людям восстановить контроль над своими конечностями, ампутантам – эффективно управлять роботизированными протезами, а пациентам с нарушением речевых функций восстановить способность за счет способности в передаче своих мыслей. Удивительно, но уже сейчас наблюдается большой прогресс в этом направлении. Ученые создали экзоскелет, позволяющий человеку с парализованными нижними конечностями бить по мячу. Парализованную лабораторную обезьяну научили управлять инвалидным креслом с помощью мыслей. Разрабатываемый интерфейс «мозг — мозг» позволил человеку управлять движениями конечностей других людей. Каждый такой технологический прорыв позволяет нам по чуть-чуть узнавать больше о мозге и о том, как он работает. Но еще более важно, что все эти технологии имеют потенциал возвращения ампутантам и парализованным людям самостоятельности и независимости.
Но у всех этих технологий, к сожалению, есть и обратная сторона. Как отмечает директор Центра Висса Джон Донохью, вокруг этой области начинают появляться серьезные этические вопросы и поэтому самое время начать думать о том, каким образом нейропротезирование и сфера разработок мозг-машинных интерфейсов могут столкнуться со злоупотреблением в будущем, а также о том, как от этого защититься.
«Несмотря на то, что мы по-прежнему до конца не понимаем, как работает мозг, мы все ближе становимся к моменту, когда сможем адекватно декодировать определенные мозговые сигналы. Поэтому мы должны осознавать, какое влияние все это может оказать на общество», — комментирует Донохью.
«Мы должны внимательно разобрать вероятные последствия жизни бок о бок с полуинтеллектуальными машинами, управляемыми человеческим мозгом, и должны иметь готовые разработанные механизмы, которые смогут убедить нас в их безопасности и соответствии нашим морально-этическим нормам».
Центр Висса озабочен тем, что с более широкой интеграцией этих нейроустройств в нашу повседневную жизнь будут расширяться и возможности этих инструментов. Они будут становиться более универсальными. Уже сейчас мозг-машинные интерфейсы можно использовать для того, чтобы, управляя роботизированной рукой, схватить чашку или, смотря на экран компьютера, выбрать определенное слово в тексте. Но когда-нибудь такие устройства, только более продвинутые, будут использоваться как аварийным работником для ликвидации опасной утечки газа, так и мамой ребенка, у которой не хватает лишних рук, чтобы успокоить своего плачущего малыша.
Пойди что-то не так в этих случаях, например, полуавтоматическая роботизированная рука рабочего повернет не тот кран или мать случайно выронит с роботизированных рук своего ребенка, важно задать себе вопрос: где начинается и заканчивается зона ответственности и кто в таких случаях должен быть признан виновным? Юридической системе будущего придется определять, находится ли это в зоне ответственности производителя роботизированного изделия (в конструкции найден брак или программная ошибка) или пользователя (неправильное использование или внешнее неавторизованное воздействие на целостность конструкции изделия).
Чтобы минимизировать такие потенциальные проблемы, авторы обсуждаемой сегодня работы предлагают, чтобы любая полуавтономная система оснащалась функцией автоматической блокировки и в случае ненадлежащего или незапланированного использования активировалась в обход прямого канала взаимодействия «мозг — компьютер». Если искусственная конечность начнет выполнять действия, которые пользователь не подразумевал для выполнения, то такой «выключатель» сможет самостоятельно принять решение по мгновенной деактивации системы, предотвратив потенциальную беду.
Еще одним аспектом, беспокоящим исследователей, является безопасность частной жизни пользователя и необходимость в защите любой личной информации, которая будет записываться подобными системами. Весьма вероятно, что системы, базирующиеся на интерфейсе «мозг — компьютер», будут собирать самую различную информацию о неврологическом статусе пользователя, после чего она будет передаваться на компьютер. Естественно, что такая схема не может не вызывать некоторые опасения по поводу защиты конфиденциальных данных. По мнению исследователей Центра Висса, собираемая информация может быть украдена и использована ненадлежащим образом.
«Защита частной неврологической информации о людях, полностью парализованных и использующих интерфейсы «мозг — компьютер» в качестве единственного возможного средства для коммуникации с внешним миром является особенно важным», — говорит Нильс Бирбаумер, старший научный сотрудник Центра Висса.
«Успешная калибровка систем, работающих с интерфейсом «мозг — компьютер» будет, помимо всего, зависеть от того, как их мозг будет реагировать на личные вопросы, связанные с их семьей, например, имя, возраст и семейное положение детей и так далее. Для всех вовлеченных в данном случае людей должна обеспечиваться строгая система защиты личных данных, которые будут требоваться для корректной работы функций устройства. Речь идет как об информации, которая будет выясняться с помощью личных вопросов, так и неврологической информации пациента».
Еще сильнее исследователей из Центра Висса беспокоит возможность цифрового взлома подключенного к мозгу устройства злоумышленниками, что может фактически поставить под угрозу жизнь пользователя этого устройства. С помощью так называемого «взлома мозга» могут производиться злонамеренные манипуляции с мозговыми имплантатами. Хакеры смогут получить контроль над движениями роботизированных конечностей человека.
Возможное решение этой проблемы будет включать повышенный уровень шифровки информации, создание надежной сетевой безопасности и открытого коммуникационного канала между производителем изделия и его пользователем. Внедрение большинства из этих предполагаемых мер будет весьма непростой задачей, хотя бы в связи с вероятным отсутствием универсальных стандартов, которые будут применяться в системах безопасности. Исходя из этого, специалисты Центра Висса считают, что настает время уже сейчас начинать обдумывать те пути, которые позволят всем скоординироваться и выработать универсальные индустриальные стандарты по разработке и интеграции необходимых защитных мер.
«Некоторые виды опасений, на которые указывают авторы работы, могут однажды превратиться в реальные проблемы. Поэтому я согласен с тем, что разработка неких универсальных стандартов необходима уже сейчас, чтобы потом мы не оказались в ситуации, когда будет уже слишком поздно», — комментирует Адам Кейпер, старший научный сотрудник Центра по изучению этики и общественного мнения.
И все же Кейпер, не принимавший участие в написании обсуждаемой работы, частично скептически рассматривает вариант, при котором кто-то вообще захочет взламывать интерфейс «мозг — компьютер» полностью парализованного человека либо интерфейс, использующийся в качестве канала обратной нейронной связи между человеком и тренировочными системами, то есть программами, использующими неинвазивные методы мозгового сканирования, вроде аппаратов электроэнцефалографии, систем для тренировки своего поведения, снижения стресса, занятия медитацией и так далее.
«Какую выгоду из такого взлома сможет получить хакер? Да практически никакой. Безусловно, опасения по поводу безопасности и защите личной информации могут стать важным предметом в будущем. Но мне кажется, что это преждевременный разговор».
Кейпер добавляет, что повышенный градус опасений, связанных с внедрением интерфейсов «мозг — компьютер» и полуавтономных роботов можно сравнить с тем уровнем волнения, который возникает в обществе по поводу глобальной роботизации, обещающей стать следующим шагом развития нашей социальной жизни. И хоть Кейпер соглашается с некоторыми аспектами, по его мнению, в целом проблема, по крайней мере сейчас, кажется больше надуманной, чем реальной.
«Авторы работы считают, что мы не должны сильно повышать медицинскую грамотность населения и его осведомленность в особенностях функционирования нейрофизиологических систем, которые будут использоваться при подобных видах протезирования. Но это же бред», — считает Кейпер.
По его мнению, общество само вряд ли будет проявлять повышенный интерес в подобных узкоспециализированных темах. И все же специалист признает, что часто весьма сложно подобрать нужное время для начала общественного диалога по этическим и социальным вопросам по поводу массовой интеграции новых технологий в нашу повседневную жизнь.
«Всегда есть риск сделать подобные заявления слишком рано, когда мы еще сами толком не до конца будем понимать, действительно ли перед нами находится серьезная проблема. Такие прецеденты уже были. Взять хотя бы наноэтику, сторонники которой еще десятилетие назад, толком не разобравшись в вопросе, подняли шум, заявив, что продвинутые нанотехнологии появятся чуть ли не мгновенно, и даже попытались построить на этом настоящую академическую дисциплину. Но в итоге оказалось, что развитие нанотехнологий — это куда более гибкий и плавный процесс».
«Я думаю, что с этой точки зрения авторов обсуждаемой сегодня работы можно только похвалить. Похвалить за то, что свои опасения они выражают совсем не радикальными заявлениями, а вполне себе спокойными объяснениями», — комментирует Кейпер.
Безусловно, исследователи Центра Висса подняли весьма важную тему. Рано или поздно описываемые сегодня технологии найдут путь в нашу повседневную жизнь и будут служить в качестве поддержки не только недееспособным, но и вполне себе здоровым людям.
В перспективе неинвазивные интерфейсы «мозг — компьютер» можно будет использовать для создания своего рода телекинетической связи с окружающим миром, в котором мы своими мыслями сможем управлять освещением в доме или хотя бы просто переключать телеканалы. Другими словами, дальнейший прогресс будет способен превратить эти технологии в технологический вид телепатии. Что же касается исследователей из Центра Висса, то их ключевой посыл заключается в том, чтобы мы были готовы к этому и смогли предотвратить использование подобных технологий в злонамеренных целях.