spot_img
spot_imgspot_imgspot_imgspot_img

Нужно ли ограничивать развитие нейросетей?

Развитие искусственного интеллекта (ИИ) происходит настолько быстро, что уже сегодня нейросети активно используются в различных сферах, включая медицину, финансы, автомобильную промышленность, робототехнику. Но вместе с прогрессом возникают вопросы об ограничении нейросетей, о потенциальных рисках.

МАТЕРИАЛЫ ПО ТЕМЕ
Примеры великой любви. Нейросеть нарисовала влюбленные пары из знаменитых персидских эпосов

Одно из самых главных опасений по отношению к нейросетям — это потенциальная угроза безопасности. Предполагается, что нейросеть может быть использована, например, для создания мощного вируса или враждебного программного обеспечения. Также специалисты говорят о неконтролируемом росте ИИ, и, как следствие, — о риске потери рабочих мест, увеличении неравенства в обществе.

Новатор и основатель ведущей лаборатории искусственного интеллекта в Центральной Азии zypl.ai Азизджон Азими не согласен с утверждением, что ИИ может стать угрозой для человечества. 

В своём Instagram-блоге он рассуждает, что возможности потенциального AGI (Artificial General Intelligence — система ИИ, которая может выполнять любую интеллектуальную «человеческую» задачу и даже превосходить человеческий интеллект) сильно преувеличены. 

ИЗОБРАЖЕНИЕ Азизджон Азими

То есть не успеет AGI нанести хоть какой-то существенный ущерб, как его «приструнят», так как он всегда под мониторингом ответственных компаний, который контролируют эти процессы.

МАТЕРИАЛЫ ПО ТЕМЕ
Нейросеть показала регионы Таджикистана в человеческом обличье

Поэтому так пугающее всех «восстание машин» пока не угрожает человечеству.

К слову, совсем недавно около 2 тысяч человек в мире подписали открытое письмо с призывом остановить обучение нейросетей мощнее GPT-4 хотя бы на полгода.

Инициативу поддержали Илон Маск, Стив Возняк (сооснователь Apple), Эван Шарп (соучредитель Pinterest), а также другие крупные инженеры, учёные и исследователи. 

По мнению авторов письма, людям нужно ненадолго остановиться и разработать протоколы безопасности, чтобы создаваемые сейчас нейросети в будущем имели только положительные эффекты с управляемыми рисками.

 

Новые технологии не должны попасть в руки «плохих парней»

Саркис Дарбинян — киберадвокат, ведущий юрист «РосКомСвободы», руководитель Центра защиты цифровых прав выразил «Азия-Плюс» свою точку зрения касательно последних споров. В большей степени она касается правовых аспектов вопроса развития ИИ.

«Системы искусственного интеллекта — очень мощные программные решения, которые зачастую могут рассматриваться как технологии двойного назначения. Обладание некоторыми из них авторитарными государствами может создавать значительные угрозы для населения.

В России, например, мы наблюдали, как такие системы поэтапно ставились на вооружение московскими и федеративными властями, — говорит он. — К примеру, система распознавания лиц, которая применяется для совершенно разных целей, которые постоянно меняются».

ИЗОБРАЖЕНИЕ Саркис Дарбинян

Сначала, отмечает киберадвокат, это было соблюдение безопасности на стадионах, затем для соблюдения режима lockdown (карантин) во время пандемии. Сегодня «Сфера» применяется для отлова несогласных и протестующих, а также граждан, уклоняющихся от мобилизации на войну. 

«При этом мы также узнали и о других системах ИИ, которые были взяты на службу государством — "Вепрь" и "Окулус", которые уже применяются как для автоматизации цензуры, так и для слежки за гражданами, — говорит специалист. — Так что я разделяю беспокойство Маска и других деятелей, подписавших недавно петицию о приостановлении разработок систем, более мощных чем ChatGPT. 

МАТЕРИАЛЫ ПО ТЕМЕ
Искусственный интеллект советует Службе связи Таджикистана вести здоровую конкуренцию

Даже, если нам не стоит переживать, что 4-я мировая будет войной искусственного интеллекта с биологическим, мы должны быть точно уверены, что столь мощные технологии не попадут в руки "плохих парней" и репрессивных режимов, которые, несомненно, будут применять их для ограничения прав человека».

По словам Дарбиняна, необходимо провести все необходимые правовые и социальные исследования, а также создать новые инструменты правовой защиты, которые будут защищать человека в неравных отношениях с системами ИИ, значительно превышающих в возможностях человека.

Рустам Гулов — эксперт по медиаграмотности, блогер и человек, который активно пользуется ресурсами искусственного интеллекта, считает, что притеснения в развитии нейросетей уже существуют, а свободное развитие не так страшно, как монополизация этой технологии государством. 

ИЗОБРАЖЕНИЕ Рустам Гулов

«Риски связаны с использованием нейросетей силовыми структурами, которые могут превратить страны в полицейские государства. У общества будет больше шансов на защиту личных данных, если развитие нейросетей будет свободным и конкурентным. Ограничения могут привести к монополии некоторых компаний и государств на эту технологию. Жизненно важно не допустить этого, чтобы общество могло защитить свои данные», — говорит он.

По его словам, ограничение прогресса нейросетей может привести к тому, что некоторые страны и организации, которые не станут следовать этим мерам, получат преимущество в развитии этих технологий. Такой расклад может привести к утрате конкурентоспособности и технологическому отставанию остальных государств и компаний.

 

Нужен баланс

Резкий рост популярности нейросетей имеет особое влияние и на искусство, а в особенности на художников. Ведь алгоритмы нейронной сети в буквальном смысле крадут их работы, включая копирование стиля конкретных авторов, лишают заработка и карьерных перспектив.

МАТЕРИАЛЫ ПО ТЕМЕ
Искусственный интеллект может заместить 300 миллионов рабочих мест в развитых странах

Иллюстратор и фэшн-дизайнер Азам Мирзонаджотов (более известный под псевдонимом Repcak) высказал свои опасения касательно ИИ:

«Одним из наиболее значимых преимуществ ИИ является то, что он может автоматизировать утомительные и отнимающие много времени задачи, освобождая наше время.

Более того, нейросети могут помочь нам принимать более эффективные решения, анализируя огромные объемы данных и предоставляя их краткую выжимку. Это также может повысить наш творческий потенциал, генерируя новые идеи и решения.

Но есть в ИИ и недостатки: нейронная сеть может буквально занять наши рабочие места, что приведет к безработице и экономической нестабильности», — говорит художник.

ИЗОБРАЖЕНИЕ Азам Мирзонаджотов

По его мнению, экспансия ресурсов ИИ должна быть сбалансированной и ответственной. Необходимо проводить тщательные исследования в области этики и безопасности, а также разрабатывать механизмы контроля нейросетей и защиты персональных данных.

В итоге, ответ на вопрос о том, нужно ли ограничивать развитие технологий нейронных сетей, зависит от баланса между рисками и преимуществами.

Этой весной оставайтесь с нами в TelegramFacebookInstagramЯндекс.ДзенOK и ВК 

Переводы:

Похожие материалы

spot_imgspot_img

Присоединяйтесь к нам в соцсетях!

Новости компаний

Новости компаний

Новости компаний

В Душанбе открыли новый офис Dushanbe City Bank

Для удобства своих посетителей Dushanbe City Bank открыл новый офис...

В России открылся филиал пункта приёма «Почтаи Аср»

Несмотря на то, что почтово-курьерская служба «Почтаи Аср» появилась...

«Formula55» стала титульным спонсором футбольного клуба «Хосилот»

Первая национальная букмекерская компания "Formula55" стала титульным спонсором футбольного...
spot_imgspot_img

ПОСЛЕДНИЕ НОВОСТИ

Как Манижа стала первой таджикистанкой в глобальной образовательной программе Dubai Business Associates

Манижа Раджабова стала первой гражданкой Таджикистана, которая попала в одну...

В горах Таджикистана по неосторожности погибли двое мужчин – КЧС

В горных районах Таджикистана за прошедшие сутки зафиксированы два...

Страна, которая живет в будущем уже сегодня. Как Китай внедряет технологии в повседневную жизнь

То, что для многих стран мира сегодня прорывная технология,...

Из России выдворят 20 тысяч нелегальных мигрантов

Около 20 тысяч иностранных граждан будут выдворены из России...