Нужно ли ограничивать развитие нейросетей?

Date:

Развитие искусственного интеллекта (ИИ) происходит настолько быстро, что уже сегодня нейросети активно используются в различных сферах, включая медицину, финансы, автомобильную промышленность, робототехнику. Но вместе с прогрессом возникают вопросы об ограничении нейросетей, о потенциальных рисках.

Одно из самых главных опасений по отношению к нейросетям — это потенциальная угроза безопасности. Предполагается, что нейросеть может быть использована, например, для создания мощного вируса или враждебного программного обеспечения. Также специалисты говорят о неконтролируемом росте ИИ, и, как следствие, — о риске потери рабочих мест, увеличении неравенства в обществе.

Новатор и основатель ведущей лаборатории искусственного интеллекта в Центральной Азии zypl.ai Азизджон Азими не согласен с утверждением, что ИИ может стать угрозой для человечества. 

В своём Instagram-блоге он рассуждает, что возможности потенциального AGI (Artificial General Intelligence — система ИИ, которая может выполнять любую интеллектуальную «человеческую» задачу и даже превосходить человеческий интеллект) сильно преувеличены. 

ИЗОБРАЖЕНИЕ Азизджон Азими

То есть не успеет AGI нанести хоть какой-то существенный ущерб, как его «приструнят», так как он всегда под мониторингом ответственных компаний, который контролируют эти процессы.

Поэтому так пугающее всех «восстание машин» пока не угрожает человечеству.

К слову, совсем недавно около 2 тысяч человек в мире подписали открытое письмо с призывом остановить обучение нейросетей мощнее GPT-4 хотя бы на полгода.

Инициативу поддержали Илон Маск, Стив Возняк (сооснователь Apple), Эван Шарп (соучредитель Pinterest), а также другие крупные инженеры, учёные и исследователи. 

По мнению авторов письма, людям нужно ненадолго остановиться и разработать протоколы безопасности, чтобы создаваемые сейчас нейросети в будущем имели только положительные эффекты с управляемыми рисками.

 

Новые технологии не должны попасть в руки «плохих парней»

Саркис Дарбинян — киберадвокат, ведущий юрист «РосКомСвободы», руководитель Центра защиты цифровых прав выразил «Азия-Плюс» свою точку зрения касательно последних споров. В большей степени она касается правовых аспектов вопроса развития ИИ.

«Системы искусственного интеллекта — очень мощные программные решения, которые зачастую могут рассматриваться как технологии двойного назначения. Обладание некоторыми из них авторитарными государствами может создавать значительные угрозы для населения.

В России, например, мы наблюдали, как такие системы поэтапно ставились на вооружение московскими и федеративными властями, — говорит он. — К примеру, система распознавания лиц, которая применяется для совершенно разных целей, которые постоянно меняются».

ИЗОБРАЖЕНИЕ Саркис Дарбинян

Сначала, отмечает киберадвокат, это было соблюдение безопасности на стадионах, затем для соблюдения режима lockdown (карантин) во время пандемии. Сегодня «Сфера» применяется для отлова несогласных и протестующих, а также граждан, уклоняющихся от мобилизации на войну. 

«При этом мы также узнали и о других системах ИИ, которые были взяты на службу государством — "Вепрь" и "Окулус", которые уже применяются как для автоматизации цензуры, так и для слежки за гражданами, — говорит специалист. — Так что я разделяю беспокойство Маска и других деятелей, подписавших недавно петицию о приостановлении разработок систем, более мощных чем ChatGPT. 

Даже, если нам не стоит переживать, что 4-я мировая будет войной искусственного интеллекта с биологическим, мы должны быть точно уверены, что столь мощные технологии не попадут в руки "плохих парней" и репрессивных режимов, которые, несомненно, будут применять их для ограничения прав человека».

По словам Дарбиняна, необходимо провести все необходимые правовые и социальные исследования, а также создать новые инструменты правовой защиты, которые будут защищать человека в неравных отношениях с системами ИИ, значительно превышающих в возможностях человека.

Рустам Гулов — эксперт по медиаграмотности, блогер и человек, который активно пользуется ресурсами искусственного интеллекта, считает, что притеснения в развитии нейросетей уже существуют, а свободное развитие не так страшно, как монополизация этой технологии государством. 

ИЗОБРАЖЕНИЕ Рустам Гулов

«Риски связаны с использованием нейросетей силовыми структурами, которые могут превратить страны в полицейские государства. У общества будет больше шансов на защиту личных данных, если развитие нейросетей будет свободным и конкурентным. Ограничения могут привести к монополии некоторых компаний и государств на эту технологию. Жизненно важно не допустить этого, чтобы общество могло защитить свои данные», — говорит он.

По его словам, ограничение прогресса нейросетей может привести к тому, что некоторые страны и организации, которые не станут следовать этим мерам, получат преимущество в развитии этих технологий. Такой расклад может привести к утрате конкурентоспособности и технологическому отставанию остальных государств и компаний.

 

Нужен баланс

Резкий рост популярности нейросетей имеет особое влияние и на искусство, а в особенности на художников. Ведь алгоритмы нейронной сети в буквальном смысле крадут их работы, включая копирование стиля конкретных авторов, лишают заработка и карьерных перспектив.

Иллюстратор и фэшн-дизайнер Азам Мирзонаджотов (более известный под псевдонимом Repcak) высказал свои опасения касательно ИИ:

«Одним из наиболее значимых преимуществ ИИ является то, что он может автоматизировать утомительные и отнимающие много времени задачи, освобождая наше время.

Более того, нейросети могут помочь нам принимать более эффективные решения, анализируя огромные объемы данных и предоставляя их краткую выжимку. Это также может повысить наш творческий потенциал, генерируя новые идеи и решения.

Но есть в ИИ и недостатки: нейронная сеть может буквально занять наши рабочие места, что приведет к безработице и экономической нестабильности», — говорит художник.

ИЗОБРАЖЕНИЕ Азам Мирзонаджотов

По его мнению, экспансия ресурсов ИИ должна быть сбалансированной и ответственной. Необходимо проводить тщательные исследования в области этики и безопасности, а также разрабатывать механизмы контроля нейросетей и защиты персональных данных.

В итоге, ответ на вопрос о том, нужно ли ограничивать развитие технологий нейронных сетей, зависит от баланса между рисками и преимуществами.

Этой весной оставайтесь с нами в TelegramFacebookInstagramЯндекс.ДзенOK и ВК 

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Share post:

spot_imgspot_img

Popular

More like this
Related

«Я буду биться до последнего». Как таджикская зоозащитница спасает приют для собак

Римма Аглиулина, основательница приюта для бездомных животных, оказалась в...

«Эсхата Банк»: Теперь бизнес может отслеживать свои международные платежи

«Эсхата Банк» внедрил сервис SWIFT GPI Tracking, позволяющий клиентам...

«Права детей нарушаются». Омбудсмен Таджикистана обеспокоен отстранением детей от обучения в России

Представитель Уполномоченного по правам человека в Таджикистане назвал вызывающим...

Календарь на месяц Рамазан-2026

В этом году священный месяц Рамазан в Таджикистане начнется...