Игорь Диденко "НеВенец творения. Всё, что вы боитесь знать о будущем"

grade 4,7 - Рейтинг книги по мнению 70+ читателей Рунета

Научно-популярная книга экономиста и визионера Игоря Диденко «НеВенец Творения, или Все, что вы боитесь знать о будущем» приглашает читателя к серьезному и важному разговору. Автор предлагает поразмышлять о том, куда приведет нас дорога социально-технологической эволюции – процесса, в ходе которого происходит непрерывный рост совокупного интеллекта человечества. Совершая открытие за открытием, люди чувствуют себя все более всемогущими, гордо именуют себя «венцами творения» – и в один прекрасный момент осознают, что расти цивилизации больше некуда, а все достижения прогресса, призванные сделать жизнь прекрасной, неумолимо начинают работать против них как биологического вида… В книге простым и доступным языком, но в то же время научно аргументированно объясняются все те события, что происходят с человеческой цивилизацией в последние годы, а также рассказывается, что ждет ее в недалеком будущем и почему мы все уже никогда не будем жить так хорошо, как жили в начале XXI века.

date_range Год издания :

foundation Издательство :ИД "АРГУМЕНТЫ НЕДЕЛИ"

person Автор :

workspaces ISBN :978-5-6043546-8-1

child_care Возрастное ограничение : 16

update Дата обновления : 24.10.2020


Специалисты приходят к выводу, что полностью контролировать эти риски невозможно: как и в случае с банковскими картами и мобильными финансовыми приложениями, уже появилась целая индустрия мошенников, которые ставят своей целью взлом и управление «умными» устройствами в своих интересах.

Лаура Дорнхайм, представитель компании AdBlock Plus (блокировщик рекламы), в своем интервью журналу «Snob» предостерегает: «Например, если на сайте вы видите кнопку Facebook, значит, соцсеть «знает», что вы посещали этот сайт. Даже если вы не нажимали на саму кнопку. Жутковато, правда? Вообще, я бы не советовала использовать авторизацию через аккаунты Facebook или Google на сторонних сайтах. Лучше потратить пару минут и создать отдельный аккаунт. И пароль не придумывать самостоятельно, а воспользоваться генератором паролей.

И, конечно, если вы ищете какую-то деликатную информацию, например информацию о серьезных заболеваниях, следует, по крайней мере, использовать приватный поиск в браузере, а еще лучше – воспользоваться браузером Tor, через него крайне сложно отследить человека.

Расплачиваясь в интернете своей картой, всегда имейте ввиду, что эту транзакцию могут отследить. Внимательно читайте пользовательские соглашения, устанавливая приложения на свой мобильный телефон. Есть много бесплатных приложений, например игр, которые предупреждают, что приложение может использовать ваш микрофон, хотя для игры он не нужен. Периодически такие «программы-шпионы» записывают фрагменты происходящего и потом на основе этого предлагают контекстную рекламу. А вся информация о вас хранится где-то на сервере, и неизвестно, кто еще и с какой целью может ее использовать.

Я бы никогда не стала пользоваться Siri или любым другим голосовым помощником. В моем доме нет ни одного «умного» девайса. Да, это может быть удобно, но вы становитесь уязвимым».

Не одна Лаура Дорнхайм указывает на риски установки на мобильный телефон бесплатных приложений. Журналисты издания «The Bell» выяснили, что из ТОП-100 российских программ для мобильного телефона 89 делятся пользовательскими данными клиентов со сторонними организациями, а 97 из ТОП-100 приложений используют рекламные программы (так называемые трекеры), которые помогают Google, Facebook и другим сервисам распознавать аккаунт пользователя в любых приложениях и показывать ему соответствующую рекламу. То есть из ста самых популярных бесплатных приложений в российском Play Store вообще не используют трекеры только три, что может означать почти полное отсутствие безопасности данных пользователя.

А издание «TechCrunch» провело расследование, в ходе которого оказалось, что многие популярные приложения во всем мире записывают все происходящее на экране IPhone, естественно, не уведомляя об этом пользователей. Делается это «исключительно с целью сбора аналитических данных».

Журналисты выяснили, что большинство данных при сборе такой информации передается по незащищенным каналам, и, при желании, злоумышленники могут получить доступ в том числе и к личным данным пользователей.

Издание рассказало, что все это стало возможным благодаря аналитической технологии GlassBox, которая дает возможность лицам, получающим доступ к соответствующей базе, просматривать даже данные о кредитной карте и пароле пользователя, иметь доступ к его конфиденциальной банковской информации и ключам. Один из слоганов GlassBox просто завораживает своей откровенностью: «Представьте, что вы можете смотреть в режиме реального времени, что делают ваши клиенты».

В России, как писали СМИ, в подобную ситуацию в прошлом году попали клиенты Burger King, один из которых выяснил и опубликовал информацию, что при запуске соответствующего приложения начинается запись видео с экрана смартфона. Впоследствии это видео якобы отправлялось на сервера компании. По сообщениям СМИ, после публикации информации Роскомнадзор даже начал проверку деятельности компании Burger King в России.

В основном пользователи приложений и технических новинок не обращают внимания на такие «легкие недоразумения», как нарушения приватности или утечку персональных данных, считая это естественной платой за тот комфорт и удобство, что дают людям технологичные гаджеты. Всероссийский Центр Изучения Общественного Мнения (ВЦИОМ) в 2019 году даже провел опрос на эту тему и опубликовал его результаты. Согласно данным ВЦИОМ, 52 % россиян не видят никакой угрозы в использовании своих персональных данных третьими лицами.

Тем не менее, все чаще люди задумываются о своей уязвимости из-за чрезмерного увлечения различными высокотехнологичными девайсами. Так, например, многие владельцы фитнес-трекеров Fitbit, компанию-производителя которых купил Google, предпочли отказаться от использования устройств, опасаясь передачи данных о своем здоровье и образе жизни рекламным и страховым компаниям, сообщил в ноябре 2019 года канал CNBC. Как рассказали журналисты, причиной отказа от ношения фитнес-трекеров их владельцы называли именно то, что они беспокоятся о своей приватности. При этом качество устройства и характеристики трекеров Fitbit пользователей вполне устраивали.

Многие IT-специалисты знают, предупреждают и даже показывают своим примером, что взломать «умный» гаджет, иногда таким образом получив доступ к персональным данным всех пользователей девайса, в общем-то несложно. Так, осенью 2019 года по соцсетям разошлась история, рассказанная девушкой-хакером Анной, которая, сама того не ожидая, получила доступ ко всем автоматическим кормушкам для животных от китайской фирмы FURRYTAIL (орфография автора поста сохранена).

«…Вот эти автоматические кормушки продаются по пять тыщ рублей минимум. Добротный девайс, надо сказать. Работает хорошо. Сейчас я продолжала изучать их API и случайно получила доступ ко всем кормушкам этой модели в мире. У меня на экране бегают логи со всех существующих кормушек, я вижу данные о вайфай-сетях бедных китайцев, которые купили себе эти устройства. Могу парой кликов неожиданно накормить всех котиков и собачек, а могу «наоборот» лишить их еды, удалив расписания с устройств. Вижу, сколько у кого в миске корма сейчас лежит.

Не представляю сейчас, что с этим делать, это мой самый успешный (и неожиданный) взлом, так что я немного в ступоре».

Эта же девушка на своей странице в соцсети рассказала о том, как можно удаленно управлять самокатами Xiaomi M365 и Ninebot ES1/2/4, объяснив их уязвимости особенностями непродуманного изначально протокола, который, как выяснилось, вообще не предполагает какой-либо авторизации пользователей. То есть ошибки в протоколе просто невозможно исправить, можно лишь полностью поменять протокол, что равноценно выпуску новой модели самоката Xiaomi. Вот что пишет Анна в соцсети (орфография автора сохранена):

«Да, самокаты можно запаролить, но знаете, как проверяется авторизация? Приложение шлет запрос самокату «эй, вот этот пароль правильный?» и получает ответ «да, все ок» или «нет, он неправильный». Если получает первый ответ, приложение рисует вам интерфейс управления самокатом, а если второй, выводит ошибку. Только вот никакая сессия не устанавливается, а все дальнейшие запросы выполняются без паролей и ключей. Это просто проверка… Вы можете вырезать ее из приложения и делать с самокатом что угодно. Это я выяснила, когда интегрировала статус самоката в систему умного дома.

Поверьте, такие уязвимости не допускаются случайно, это просто изначальное нежелание нормально продумывать протокол… На самом деле приложение завершает регистрацию еще до того, как просит вас нажать кнопку. А если вы ее не нажмете, регистрация просто сбрасывается. Если почитаете мой разбор протокола, вы поймете, что можете управлять соседскими чайниками, даже не имея физического доступа в квартиру».

Скорее всего, таких случаев множество, просто далеко не все они оказываются на страницах СМИ и социальных медиа. А ведь в бэкдорах (специально оставленных «дырах» в протоколе) обвиняют не только разработчиков «умных» вещей, но и мессенджер WhatsApp, например, и некоторые социальные сети…

Вообще, когда на рынке появились бесплатные сервисы (те же мессенджеры или приложения), многие задавались вопросом, в чем суть таких «бизнесов»: ведь они не генерировали положительный денежный поток, так как предоставляли абсолютно бесплатные услуги, а перспектив монетизации не просматривалось. Вскоре товаром стали сами люди, точнее, их персональные данные. Зарабатывать на этом оказалось едва ли не выгоднее, чем на рекламе.

И вот уже сам легендарный «создатель интернета», программист и общественный деятель Тим Бернерс-Ли бьет в набат, требуя сделать интернет «безопаснее». «При поддержке правительств Франции и Германии, компаний Microsoft, Google, Facebook и более чем 160 других компаний» он провозглашает осенью 2019 года «принципы безопасного интернета» (ниже приведены основные):

1) поддерживать доступ в интернет каждого человека в любое время, всегда и везде, по доступным ценам;

2) уважать право на неприкосновенность личных данных;

3) развивать лучшее в человеке;

4) пользователи должны выступать со-творцами интернета, уважать права и достоинства других пользователей, защищать интернет.

В противном случае, предупредил Бернерс-Ли, всемирная сеть станет «источником киберпанковой антиутопии».

«В этот ключевой момент для интернета мы несем общую ответственность за борьбу за сеть, которую мы хотим. Многие из наиболее активных участников кампании по этому вопросу уже осознали, что совместный подход имеет решающее значение. Силы, ведущие сеть в неправильном направлении, всегда были очень могущественны. Независимо от того, являетесь ли вы компанией или правительством, управление сетью – это способ получения огромных прибылей или способ гарантировать, что вы остаетесь у власти», – предостерегает Бернерс-Ли.

Конечно, очень здорово, что такой уважаемый в мире высоких технологий человек, как Тим Бернерс-Ли, озаботился столь важной проблемой, как состояние интернета, но… есть ощущение, что его идеи немного запоздали, приблизительно лет на пятнадцать.

Кроме того, Бернерс-Ли обходит стороной ключевой, на самом деле, вопрос. Для того, чтобы реально воплотить в жизнь возвышенные «принципы безопасного интернета», нужно… запретить использование технологии Big Data, то есть сбор любых персональных данных. А ведь без «больших данных» невозможно обучать нейросети, то есть развивать искусственный интеллект. А это уже прямое нарушение третьего принципа социально-технологической эволюции и отказ от технологического прогресса. Вы серьезно верите в возможность повернуть эволюцию вспять?

В общем, учитывая, что интернет уже давно стал ареной настоящей кибервойны между конкурирующими государствами и способом получения высокотехнологичными корпорациями сверхдоходов путем эксплуатации «экономики внимания» и использования персональных данных граждан (зачастую без ведома самих пользователей), ожидать, что кто-то немедленно бросится исполнять «заветы Тима», бессмысленно.

Это подчеркивает Бенджамин Гарфилд, научный сотрудник Школы медиаискусств и технологий Солентского университета в Великобритании, в интервью медиапорталу «The Conversation»: «Алгоритмы таких компаний как Google, Facebook и Twitter определяют, что люди видят в интернете. Google зарабатывает на людях, которые пользуются его бесплатными услугами, за счет сбора данных пользователей для создания таргетированной рекламы, и его бизнес-модель вряд ли изменится в одночасье. Для успеха интернет-реформы потребуется сотрудничество между правительствами разных стран для эффективного регулирования работы технокомпаний, а также реакция со стороны пользователей».

Похоже, риски для «вычислительных машин предыдущего поколения», или, как любят выражаться ученые-биологи, «наборов из 46 хромосом», будут только возрастать. Для того, чтобы полностью устранить их, пользователю нужно не только соблюдать множество правил «киберграмотности», но желательно еще и разбираться в информационных технологиях, понимать, что, с точки зрения собственной безопасности, делать необходимо, а чем можно пренебречь, дабы не слишком усложнять собственную жизнь. Впрочем, то же самое можно сказать и о финансовой грамотности: как говорится, лучший способ быть финансово грамотным – это получить профильное образование.

Поэтому, принимая во внимание киберриски, возникшие для людей с появлением новых технологий, наверное, не стоит сильно преувеличивать именно их. В конце концов, технологические риски были всегда: с изобретением железных дорог и автомобилей появился риск попасть под поезд или машину, с появлением самолетов неминуемо возник шанс попасть в авиакатастрофу.

Тем не менее, в последние годы появилось немало рисков глобального масштаба, о которых стоит поговорить отдельно. Один из них – стремительное развитие военных технологий.

В 2019 году высокотехнологичные гиганты Amazon и Microsoft подтвердили, что, невзирая на протесты сотрудников, будут принимать участие в военном проекте Соединенных Штатов – JEDI, направленном на «повышение смертоносности» вооруженных сил Пентагона с помощью искусственного интеллекта. Alphabet (Google) публично отказался участвовать, сославшись на корпоративную этику.

Повсеместно искусственный интеллект все активнее используют в военных проектах, дискуссия об этичности этого публично не ведется, а риски не афишируются. Неудивительно, что мировые лидеры уже не рассматривают войну как нечто далекое и фантастическое, думая и даже говоря так, как в 2019 году выразился китайский лидер Си Цзиньпин: «Необходимо сконцентрироваться на задачах и быть готовыми к войне».

Появляются и совершенно новые технологии, такие, как, например, Автономные Боевые Системы (АБС). Это боевые роботы, которые смогут самостоятельно принимать решение о применении смертоносного оружия, и они становятся все более популярной идеей в военных ведомствах разных государств мира. США, Великобритания, страны ЕС, Китай, Россия, Индия, Израиль, Южная Корея – это далеко не полный перечень государств, значительно продвинувшихся в последние годы в разработке АБС.

Руководство Пентагона не скрывает, что в ближайшие годы Автономные Боевые Системы станут неотъемлемой частью вооруженных сил США. При этом противники технологии резонно указывают, что искусственный интеллект не может на свое усмотрение принимать решение о применении летального оружия. Представители военных ведомств в ответ замечают, что прогресс достиг такого уровня, что повсеместное распространение АБС становится лишь делом времени. Ведь такой робот гораздо менее уязвим, чем солдат из плоти и крови, дешевле в эксплуатации, а (самое главное) практически любую его ошибку при желании можно списать на технический сбой.

Несмотря на жаркую дискуссию вокруг использования Автономных Боевых Систем, страны, пытавшиеся обратить внимание на опасность технологий АБС для человечества, в свое время даже не смогли получить мандат на создание рабочей группы по обсуждению этого вопроса в рамках Организации Объединенных Наций. Ведь плюсы Автономных Боевых Систем для оборонных ведомств всех стран мира настолько очевидны, что долгосрочными рисками, похоже, будут пренебрегать до последнего. Кстати, пренебрежение долгосрочными рисками ради краткосрочных выгод уже стало мировым трендом.

Об огромных рисках использования АБС с искусственным интеллектом предупреждает Лора Нолан, бывшая сотрудница Google, работавшая в этой мегакорпорации над проектом по усовершенствованию технологии военных беспилотников. Она уверена, что, в отличие от беспилотных летательных аппаратов, которые контролируются операторами, зачастую находящимися за тысячи километров от места дислокации беспилотников, Автономные Боевые Системы могут совершать «ужасные вещи, для которых они изначально не были запрограммированы».

Она считает, что автономные роботы-убийцы, не управляемые человеком, должны быть запрещены международным договором наподобие тех, которые запрещают химическое или биологическое оружие: «Вероятность катастрофы прямо пропорциональна тому, сколько этих машин будет находиться одновременно в конкретном районе… Может случиться все что угодно, если роботы начнут вести себя неожиданным образом. Поэтому любые передовые системы вооружений должны полностью контролироваться человеком, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны».

Очень хочется надеяться, что такие боевые системы все-таки не будут полностью автономными. Ведь любое вторжение кибертеррористов в системы принятия решений АБС может привести к поистине катастрофическим последствиям – тем более что сетевые злоумышленники с усилением темпов технологического прогресса тоже прогрессируют. В 2019 году на одной из конференций хакеров была продемонстрирована программа, которую было возможно настроить так, чтобы она самостоятельно генерировала вредоносное (вирусное) программное обеспечение.

Программе было достаточно потренироваться на стандартной платформе для обучения искусственного интеллекта Open AI Gym, чтобы довольно быстро научиться прятать вредоносное программное обеспечение от систем защиты. Каким образом? Все оказалось банально и просто: антивирусные системы просто не могли распознать угрозу, настолько успешно алгоритм имитировал нормальное поведение, мимикрируя под обычные, часто используемые пользователем программы.

А ведь если такого рода технологии будут доработаны злоумышленниками и станут широко распространены, это позволит искусственному интеллекту и стоящим за ним хакерам наносить компьютерам пользователей и даже объектам государственной инфраструктуры максимальный урон при минимальных рисках быть обнаруженными. Не хочется даже представлять себе, что в этом случае могут натворить взломанные кибертеррористами Автономные Боевые Системы.

Впрочем, бывает, что искусственный интеллект может наломать дров и самостоятельно, без участия всяких «сетевых злоумышленников». Например, в судебных процессах.

Многие читатели наверняка знают, что нейросети уже несколько лет используются для анализа дел и вынесения рекомендаций (правда, пока необязательных к исполнению) судьям в Соединенных Штатах Америки. Гораздо менее известен другой факт. В 2018 году более 100 общественных и правозащитных организаций США выступили категорически против использования искусственного интеллекта в уголовных судебных процессах. Оказалось, что алгоритмы, изучая дела и характеристики подсудимых в рамках так называемой «оценки рисков», слишком большое значение уделяют социальному происхождению и жизненной истории обвиняемого.

Иными словами, при принятии решения о тех или иных рекомендациях судьям, искусственный интеллект основывается на закономерностях, которые он выводит исходя из полученных данных. Нейросети обучаются на массивах Big Data, а эти данные зачастую позволяют сделать статистический вывод о том, что представители социально незащищенных слоев более склонны к уголовным преступлениям и насилию, нежели выходцы из обеспеченных и благополучных семей.

И действительно, если алгоритм видит, что, например, низкий доход прямо коррелирует с высоким рецидивом преступлений, он может дать на этом основании ошибочную рекомендацию судье, посчитав, что именно низкий доход способствовал преступлению. На самом же деле причинно-следственные связи могут быть совершенно иными.

Многие правозащитники указывают, что использование искусственного интеллекта в уголовном процессе закрепляет социальное неравенство и приводит к обвинительному уклону в отношении представителей социально неблагополучных слоев населения значительно чаще, нежели чем в отношении среднего класса и обеспеченных граждан. А это уже прямой путь к возрождению классовых, а возможно и расовых предрассудков.

С одной стороны, кажется, что большинству стран мира до полноценной цифровизации и внедрения искусственного интеллекта еще далеко. С другой стороны, людям постепенно нужно привыкать к тому, что в преддверии технологической сингулярности в их повседневную жизнь все больше будет входить искусственный интеллект, и не всегда это будет происходить комфортно и безболезненно.

Это понимают, кстати, власти многих стран мира. Например, бывший российский премьер-министр Дмитрий Медведев высказывался о цифровизации предельно конкретно. «[Цифровая] революция – это и углубление неравенства и между людьми, и между странами, и всплеск безработицы, и вторжение в частную жизнь человека», – отмечал он в своем выступлении на саммите АТЭС в 2019 году, добавляя при этом, что данная революция является «абсолютным благом с точки зрения общественного развития». В другой раз Дмитрий Анатольевич сравнил масштабы изменений, ожидающие общество при цифровизации, с крушением Союза Советских Социалистических Республик.

Да, общество ждут изменения, причем колоссальные. Помимо беспилотников на дорогах, повсеместного распознавания лиц, 100 % безналичных платежей и электронного документооборота в скором времени могут стать реальностью и беспристрастный «алгоритмический» суд, и супермаркеты без обслуживающего персонала, и даже наделение машин статусом «субъектов права» (по аналогии с физическими и юридическими лицами). И это не шутка. Как писали российские СМИ, сегодня по инициативе экспертов нацпроекта «Цифровая экономика» ведется разработка кодекса прав машин и искусственного интеллекта (сейчас это называется «Федеральный закон, регулирующий правоотношения в сфере киберфизических систем». В рамках этого национального проекта обсуждают и создание Федерального агентства по робототехнике и искусственному интеллекту и даже внедрение «машиночитаемого права и автоматического правоприменения» в сфере действия не только, например, Правил дорожного движения, но и других кодексов.

Конец ознакомительного фрагмента.

Текст предоставлен ООО «ЛитРес».

Прочитайте эту книгу целиком, купив полную легальную версию (https://www.litres.ru/igor-didenko/nevenec-tvoreniya-vse-chto-vy-boites-znat-o-buduschem/?lfrom=174836202) на ЛитРес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

Все книги на сайте предоставены для ознакомления и защищены авторским правом