Развитие искусственного интеллекта (ИИ) происходит настолько быстро, что уже сегодня нейросети активно используются в различных сферах, включая медицину, финансы, автомобильную промышленность, робототехнику. Но вместе с прогрессом возникают вопросы об ограничении нейросетей, о потенциальных рисках.
Одно из самых главных опасений по отношению к нейросетям — это потенциальная угроза безопасности. Предполагается, что нейросеть может быть использована, например, для создания мощного вируса или враждебного программного обеспечения. Также специалисты говорят о неконтролируемом росте ИИ, и, как следствие, — о риске потери рабочих мест, увеличении неравенства в обществе.
Новатор и основатель ведущей лаборатории искусственного интеллекта в Центральной Азии zypl.ai Азизджон Азими не согласен с утверждением, что ИИ может стать угрозой для человечества.
В своём Instagram-блоге он рассуждает, что возможности потенциального AGI (Artificial General Intelligence — система ИИ, которая может выполнять любую интеллектуальную «человеческую» задачу и даже превосходить человеческий интеллект) сильно преувеличены.
То есть не успеет AGI нанести хоть какой-то существенный ущерб, как его «приструнят», так как он всегда под мониторингом ответственных компаний, который контролируют эти процессы.
Поэтому так пугающее всех «восстание машин» пока не угрожает человечеству.
К слову, совсем недавно около 2 тысяч человек в мире подписали открытое письмо с призывом остановить обучение нейросетей мощнее GPT-4 хотя бы на полгода.
Инициативу поддержали Илон Маск, Стив Возняк (сооснователь Apple), Эван Шарп (соучредитель Pinterest), а также другие крупные инженеры, учёные и исследователи.
По мнению авторов письма, людям нужно ненадолго остановиться и разработать протоколы безопасности, чтобы создаваемые сейчас нейросети в будущем имели только положительные эффекты с управляемыми рисками.
Новые технологии не должны попасть в руки «плохих парней»
Саркис Дарбинян — киберадвокат, ведущий юрист «РосКомСвободы», руководитель Центра защиты цифровых прав выразил «Азия-Плюс» свою точку зрения касательно последних споров. В большей степени она касается правовых аспектов вопроса развития ИИ.
«Системы искусственного интеллекта — очень мощные программные решения, которые зачастую могут рассматриваться как технологии двойного назначения. Обладание некоторыми из них авторитарными государствами может создавать значительные угрозы для населения.
В России, например, мы наблюдали, как такие системы поэтапно ставились на вооружение московскими и федеративными властями, — говорит он. — К примеру, система распознавания лиц, которая применяется для совершенно разных целей, которые постоянно меняются».
Сначала, отмечает киберадвокат, это было соблюдение безопасности на стадионах, затем для соблюдения режима lockdown (карантин) во время пандемии. Сегодня «Сфера» применяется для отлова несогласных и протестующих, а также граждан, уклоняющихся от мобилизации на войну.
«При этом мы также узнали и о других системах ИИ, которые были взяты на службу государством — "Вепрь" и "Окулус", которые уже применяются как для автоматизации цензуры, так и для слежки за гражданами, — говорит специалист. — Так что я разделяю беспокойство Маска и других деятелей, подписавших недавно петицию о приостановлении разработок систем, более мощных чем ChatGPT.
Даже, если нам не стоит переживать, что 4-я мировая будет войной искусственного интеллекта с биологическим, мы должны быть точно уверены, что столь мощные технологии не попадут в руки "плохих парней" и репрессивных режимов, которые, несомненно, будут применять их для ограничения прав человека».
По словам Дарбиняна, необходимо провести все необходимые правовые и социальные исследования, а также создать новые инструменты правовой защиты, которые будут защищать человека в неравных отношениях с системами ИИ, значительно превышающих в возможностях человека.
Рустам Гулов — эксперт по медиаграмотности, блогер и человек, который активно пользуется ресурсами искусственного интеллекта, считает, что притеснения в развитии нейросетей уже существуют, а свободное развитие не так страшно, как монополизация этой технологии государством.
«Риски связаны с использованием нейросетей силовыми структурами, которые могут превратить страны в полицейские государства. У общества будет больше шансов на защиту личных данных, если развитие нейросетей будет свободным и конкурентным. Ограничения могут привести к монополии некоторых компаний и государств на эту технологию. Жизненно важно не допустить этого, чтобы общество могло защитить свои данные», — говорит он.
По его словам, ограничение прогресса нейросетей может привести к тому, что некоторые страны и организации, которые не станут следовать этим мерам, получат преимущество в развитии этих технологий. Такой расклад может привести к утрате конкурентоспособности и технологическому отставанию остальных государств и компаний.
Нужен баланс
Резкий рост популярности нейросетей имеет особое влияние и на искусство, а в особенности на художников. Ведь алгоритмы нейронной сети в буквальном смысле крадут их работы, включая копирование стиля конкретных авторов, лишают заработка и карьерных перспектив.
Иллюстратор и фэшн-дизайнер Азам Мирзонаджотов (более известный под псевдонимом Repcak) высказал свои опасения касательно ИИ:
«Одним из наиболее значимых преимуществ ИИ является то, что он может автоматизировать утомительные и отнимающие много времени задачи, освобождая наше время.
Более того, нейросети могут помочь нам принимать более эффективные решения, анализируя огромные объемы данных и предоставляя их краткую выжимку. Это также может повысить наш творческий потенциал, генерируя новые идеи и решения.
Но есть в ИИ и недостатки: нейронная сеть может буквально занять наши рабочие места, что приведет к безработице и экономической нестабильности», — говорит художник.
По его мнению, экспансия ресурсов ИИ должна быть сбалансированной и ответственной. Необходимо проводить тщательные исследования в области этики и безопасности, а также разрабатывать механизмы контроля нейросетей и защиты персональных данных.
В итоге, ответ на вопрос о том, нужно ли ограничивать развитие технологий нейронных сетей, зависит от баланса между рисками и преимуществами.
Этой весной оставайтесь с нами в Telegram, Facebook, Instagram, Яндекс.Дзен, OK и ВК