Сегодня автоматика выполняет нашу работу, завтра нейросеть станет верным советчиком, а затем искусственный интеллект встанет бок о бок с человеком – во всех сферах жизни. Чтобы это сосуществование не зашло в опасный тупик, потребуется юридическая база, свод законов для роботов, в котором они будут представлены не как «машины», но «самостоятельные личности». Чтобы могли нести ответственность за дела свои, например.
Речь идет не о фундаментальных «трех законах робототехники Азимова», а о приземленных вещах. В докладе для Комиссии по правовым вопросам Европарламента выделен такой момент. Чтобы стать автономным, роботу нужно «научиться», а это означает неизбежные ошибки в процессе, которые приводят к ущербу. Кто обязан его компенсировать – производитель-учитель или владелец-эксплуататор? Ведь сам робот официально еще «несмышленыш» и взять с него нечего.
Корпорации, которые сегодня официально берут на работу интеллектуальные системы, готовы придать им часть прав юридического лица – для удобства ведения бизнеса. А что насчет прав личности? Концепция разработки ИИ подразумевает наличие «выключателя смерти», безусловного механизма деактивации системы. Но в Google DeepMind считают, что выгоднее прибегнуть к селективной амнезии: робот сотрет память о своих поступках и мотивации, но останется «жить».
Чиновники, с присущей им дотошностью, уже начали выяснять – кто должен иметь право на убийство или экзекуцию ИИ? Сам владелец робота, на которого и возляжет вся ответственность, по аналогии с контролем над домашним питомцем? Или кнопку, как аналог летального оружия, можно вручить только полицейскому? А то и вовсе выдавать доступ к ней исключительно по решению суда или аналогичной правовой структуры. Слишком много «серых зон» и сложных вопросов.
Европарламент собирается сделать первые выводы и, возможно, проголосовать за новые законы для роботов в феврале 2017 г.