Метод практики Учения Будды в наш цифровой век (отрывок)
Миргхафори Никки

перевод — Леша Тэль
редактор — Ксения Тэль

источник — Тхеравада.рф


Мы, люди, нередко очеловечиваем компьютеры, приписывая им качества живых существ и испытывая по отношению к ним сильные эмоции. Аргумент «сингулярности», предсказывает, что компьютерный сверхразум намного превзойдет человеческий интеллект. Более мрачную версию этого будущего, где люди служат этим сверхразумным повелителям, часто сопровождает страх.

Эта версия обсуждается многими группами людей. Некоторые футурологи заявляют, что достижение сингулярности произойдет весьма скоро, тогда как многие эксперты по искусственному интеллекту полагают, что подобное просто маловероятно. Я причисляю себя к лагерю большинства — «маловероятных», вместе со Стивеном Пинкером из Гарвардского университета, который писал: «Нет ни малейшей причины верить в грядущую сингулярность. Тот факт, что вы можете представить будущее, еще не является доказательством того, что оно вероятно или даже возможно. Посмотрите на купола над поселениями, реактивные ранцы для поездок на работу, подводные города, здания высотой в милю и атомные автомобили — все это являлось элементами футуристических фантазий, когда я был еще ребенком, которые так никогда не сбылись. Чистая вычислительная мощность — это не пыльца феи, которая волшебным образом решает все ваши проблемы.»

То, что я часто наблюдал среди не ученых, одержимых страхом перед интеллектуальными машинами, — это непонимание того, чем определяется машинный интеллект (решение проблем на основе набора правил или использование предыдущих примеров). Некоторые из них даже доходят до того, что, выдавая желаемое за действительное, приписывают машинам искусственное сознание. Как ученый ИИ и буддийский учитель, я высоко ценю точку зрения профессора философии Калифорнийского университета в Беркли Джона Серла, который кратко излагает суть этого вопроса: «[компьютеры] не имеют, буквально . . . ни интеллекта, ни мотивации, ни самостоятельности, ни свободы воли. Мы конструируем их таким образом, чтобы они вели себя так, как будто у них есть определенная психика, но за этими процессами и поведением в действительности не существует никакой психологической реальности. . . Механизмы не имеют никаких убеждений, желаний, [или] мотиваций.»(Серл 2014, 54)

«Процессы», о которых говорит Серл, — это просто линии кода или алгоритмы, которые в первую очередь учатся распознавать паттерны в передаваемых им данных (например, изображения, слова, речь и т. д.). На самом деле в них нет ни настоящего интеллекта, ни мотивации, ни автономии, ни свободы воли.

Когда я размышляю о нашей технологической эпохе, меня больше беспокоит не столько раздутая угроза супер интеллектуальных машин в будущем, сколько то, как мы сейчас взаимодействуем с технологиями и вводим их в человеческое общество. Меня беспокоит растущее пристрастие людей к технологическим интерфейсам соц. сетей, количество часов, которые мы все вместе тратим на бесконечный просмотр постов в Facebook, изображений в Instagram, твитов в Twitter, продуктов на Amazon и т. д. и т.п. Меня беспокоит развивающаяся в человечестве культура многозадачности, необходимость всегда быть онлайн — подключенным и отзывчивым 24/7 сразу на нескольких цифровых каналах. Я опечалена распространенностью проблем с психическим здоровьем у детей, подростков и взрослых, которые постоянно подвергаются общественному давлению в интернете, страдают от чрезмерного напряжения, испытывают потребность выглядеть идеальными, тех, кто подвергается издевательствам или, еще более ужасно, тех, кто учится издеваться над другими при помощи цифрового удаленного взаимодействия. Это список можно продолжать долго…

Часть ответственности лежит на всех нас — пользователях, которые охотно участвуют в этом, не зная о возможностях собственной коллективной силы, которую можно прилагать для освобождения от чрезмерного потребления, создав более здоровую цифровую культуру и требовать более гуманных и этичных технологий. Однако, основная тяжесть ответственности лежит на плечах разработчиков этих столь сильно вовлекающих людей технологий, извлекающих выгоду из кликов мышью, времени и внимания людей, проведенных на их платформах. Это зависит и от организаций собирающих и обрабатывающих статистику, которые тщательно собирают, анализируют, хранят, курируют контент для преподнесения информации, а иногда без нашего ведома покупают, продают его и иными образами нарушают нашу конфиденциальность. Принципы этического технологического взаимодействия и конфиденциальности стали более важными, чем когда-либо в нашем обществе.

В мире, где корни жадности, ненависти и заблуждений порождают нездоровые социальные, политические, финансовые и экологические материальные структуры, нет ничего удивительного в том, что мы наблюдаем те же самое и в цифровых информационных структурах. Давайте помнить, что наша практика в той же мере является как внутренней так и внешней. Когда мы работаем над тем, чтобы взрастить в наших сердцах и умах не-жадность (щедрость), не-ненависть (доброту) и не-заблуждение (мудрость), мы должны распространить нашу практику на весь мир, и наша цифровая жизнь не будет являться исключением. Когда мы приучим себя взаимодействовать с переживаниями с соответствующей реакцией, мы развиваем свою способность встречать будущее без страха. Точно так же, вместо того чтобы бояться нашего цифрового будущего, я призываю всех вас, как пользователей так и разработчиков, вложить всю свою энергию в коллективные усилия по созданию цифрового будущего сейчас с этикой и мудростью по отношению ко всему что происходит в мире, сделав это еще одним методом практики учения Будды.