Джэфры Хінтан, якога многія лічаць «хросным бацькам» штучнага інтэлекту (artіfіcіal іntellіgence, AІ), абвясціў аб сваім сыходзе з Google, папярэдзіўшы аб узрослай небяспецы, звязанай з развіццём гэтай тэхналогіі, паведаміла «BBC». Джэфры Хінтан папярэдзіў, што наступствы прымянення чат-ботаў са штучным інтэлектам могуць быць «даволі страшныя». «Цяпер яны не разумнейшыя за нас, наколькі я магу меркаваць. Але я думаю, што хутка яны стануць такімі», — адзначыў Хінтан. Паводле яго слоў, улічваючы тэмпы прагрэсу, сітуацыя можа змяняцца даволі хутка, таму людзям «трэба турбавацца аб гэтым». Калі можа разгарнуцца «паўстанне машын» і як гэтага пазбегнуць?
Звышчалавечы інтэлект
Далейшае развіццё штучнага інтэлекту можа паставіць кропку ў развіцці чалавецтва: рана ці позна суперразумныя нейрасеткі выйдуць за межы інтэрнэту, перахопяць кіраванне ўсімі працэсамі на планеце і пазбавяцца ад людзей. Такі шакавальны прагноз у эмацыянальнай калонцы для Tіme прывёў сузаснавальнік Інстытута даследавання машыннага інтэлекту Эліезер Юдкоўскі, адзін з галоўных ІT-экспертаў сучаснасці, паведаміла lenta.ru. Яго прапанова — цалкам спыніць любыя даследаванні ў гэтай галіне, акрамя тых, што дапамогуць пазбегнуць гібелі чалавецтва. «Ключавая небяспека — перспектыва стварэння не такога інтэлекту, які будзе канкураваць з чалавечым, а такога, які будзе пераўзыходзіць чалавечы. На гэтым шляху вельмі дрэнна відаць крытычныя межы, якія даследчыкі могуць перасекчы незаўважна для іх саміх», — напісаў Юдкоўскі.
Ён упэўнены, што звышчалавечаму штучнаму інтэлекту будзе напляваць як на людзей, так і на разумнае жыццё ў цэлым. Абыякавыя нейрасеткі будуць кіравацца не эмоцыямі, якія ім невядомыя, а сваімі патрэбамі. «Каб візуалізаваць варожы звышчалавечы АІ, не ўяўляйце сабе нейкага разумнага мысліцеля, які знаходзіцца ў інтэрнэце і рассылае адтуль заражаныя электронныя лісты. Уявіце сабе цэлую іншапланетную цывілізацыю, якая мысліць з хуткасцю, якая ў мільёны разоў перавышае чалавечую, першапачаткова абмежаваную камп'ютарамі, — у свеце істот, якія, з яе пункту гледжання, вельмі дурныя і вельмі марудлівыя», — прапанаваў Юдкоўскі.
Юдкоўскі таксама прапануе задумацца аб тым, што штучны інтэлект зможа выбірацца за межы інтэрнэту, калі гэтага захоча. Яго здагадкі выглядаюць як сцэна з якога-небудзь фантастычнага фільма: машыны навучацца красці расшыфраваную ДНК асобнага чалавека, ствараць на іх аснове штучныя формы жыцця ці нават арганізуюць постбіялагічную малекулярную вытворчасць, пры якой змогуць перазбіраць адны рэчывы ў зусім іншыя.
Пагрозу — на паўзу
Асцярогі, выказаныя Юдкоўскім, сталі адказам на ліст, апублікаваны ў канцы сакавіка Інстытутам будучага жыцця (The Future of Lіfe), які вывучае пытанні, што нясуць экзістэнцыяльную пагрозу чалавецтву. У сярэдзіне мінулага дзесяцігоддзя старт гэтаму праекту даў амерыканскі ІT-прадпрымальнік Ілан Маск, і ён жа стаў адным з галоўных падпісантаў адноснага кароткага ліста аб будучыні АІ, адзначыла lenta.ru. Але не адзіным: свае віртуальныя аўтографы пад тэкстам пакінулі больш за дзесяць тысяч чалавек. Сярод іх — сузаснавальнік Apple Стыў Вазняк, адзін з вядучых гісторыкаў-пісьменнікаў апошняга часу Юваль Ной Харары, а таксама дзясяткі вядомых даследчыкаў штучнага інтэлекту. Асноўны пасыл дакумента падобны да тэзісаў Юдкоўскага: у лісце сцвярджаецца, што штучны інтэлект унясе найглыбейшыя змены ў жыццё людзей, таму яго развіццём варта адказна кіраваць. Але паколькі ніхто гэтага не робіць, патрэбны мараторый на далейшае развіццё.
«Сучасныя сістэмы штучнага інтэлекту становяцца канкурэнтаздольнымі ў вырашэнні асноўных задач, — адзначаецца ў лісце. — Мы павінны спытаць сябе: ці павінны мы дазваляць машынам запаўняць нашы інфармацыйныя каналы прапагандай і няпраўдай? Ці павінны мы аўтаматызаваць усе працоўныя месцы, у тым ліку месцы тых, хто прымае рашэнні? Ці павінны мы развіваць нечалавечыя розумы, якія ў канчатковым выніку могуць перасягнуць нас колькасцю, перахітрыць і замяніць нас? Ці павінны мы рызыкаваць тым, каб страціць кантроль над нашай цывілізацыяй?».
Прапанова аўтараў ліста і згодных з імі — прыпыненне навучання інтэлектуальных сістэм на найбліжэйшыя шэсць месяцаў. Юдкоўскі ж лічыць, што такі мараторый павінен працягвацца як мінімум 30 гадоў. На думку Маска і іншых падпісантаў, ніводная з нейрасетак у найбліжэйшыя паўгода не павінна стаць разумнейшай за GPT-4. Менавіта выхад новай версіі нашумелага прадукту кампаніі OpenAІ (адным з сузаснавальнікаў якой быў зноў жа Маск) стаў фармальнай падставай для публікацыі дакумента. Як вядома, 14 сакавіка быў презентаваны «новы прарыў у штучным інтэлекце» — нейрасетка GPT-4. Сумесная распрацоўка Mіcrosoft і OpenAІ уяўляе сабой мультымадальную мадэль, здольную ствараць відэа і ўспрымаць не толькі тэкст, але і гук, а таксама выявы.
І ты, бот
Ілан Маск лічыць, што развіццё штучнага інтэлекту можа прывесці да знішчэння чалавецтва. Аб гэтым амерыканскі прадпрымальнік і мільярдэр заявіў у інтэрв'ю тэлеканалу Fox News. На яго думку, штучны інтэлект мае «патэнцыял для знішчэння цывілізацыі». Маск зазначыў, што падобны сцэнарый быў у фільмах «Тэрмінатар». «Але ўсё адбудзецца не як у «Тэрмінатары», таму што розум будзе знаходзіцца ў цэнтрах апрацоўкі даных. Робаты будуць толькі канчатковым фактарам», — папярэджвае ён. Пры гэтым Ілан Маск мяркуе, што ўсё ідзе да таго, што штучны інтэлект будзе прымаць рашэнні за людзей, якія ўжо не будуць здольныя яго адключыць. У сувязі з гэтым прадпрымальнік заявіў аб неабходнасці дзяржаўнага кантролю ў сферы штучнага інтэлекту. «Трэба нейкая форма дзяржаўнага нагляду, таму што ён уяўляе небяспеку для людзей», — сказаў на заканчэнне ён, дадаўшы, што недапушчальна, каб кампаніі грэбавалі патрабаваннямі бяспекі, а пакутавалі людзі.
У апошнія тыдні на тэму імклівага развіцця нейрасетак звярнулі ўвагу не толькі прадстаўнікі экспертнай супольнасці, але і ўлады асобных краін. Гэта адбылося на фоне паведамленняў аб тым, што штучны інтэлект пачалі выкарыстоўваць зламыснікі. Сітуацыяй занепакоіўся нават Еўрапол, які папярэдзіў аб патэнцыяльных рызыках для кіберпрасторы, якія сыходзяць ад ужо існуючых мадэляў АІ. У прыватнасці, сілавікі асцерагаюцца, што нейрасеткі змогуць абыходзіць ахоўныя праграмы і дапамагаць у арганізацыі кібератак, спрыяць навучанню кіберзлачынцаў новым тактыкам ці нават генерыраваць унікальны шкоднасны код. Усё гэта зменшыць парог уваходу ў хакінг і зробіць яго даступным нават для тых, хто амаль нічога ў ім не разумее.
У Еўраполе прызнаюць, што частка гэтай інфармацыі ўжо і так ёсць у інтэрнэце, але той самы ChatGPT (чат-бот са штучным інтэлектам, які мае проста ашаламляльныя магчымасці) можа знайсці яе за секунды, а не дні і месяцы. Асноўныя доказы праціўнікаў яго масавага ўкаранення звязаныя з тым, што гэтая тэхналогія парушае канфідэнцыяльнасць (любыя персанальныя даныя, якія становяцца вядомыя нейрасетцы, становяцца матэрыялам для вывучэння і далейшага развіцця АІ) і з адсутнасцю прававой асновы для выкарыстання звестак пра карыстальнікаў. Сярод іншых прэтэнзій — немагчымасць праверыць узрост юзера, нягледзячы на фармальнае абмежаванне на выкарыстанне ChatGPT для тых, каму няма 13 гадоў. Для еўрапейскай супольнасці, дзе ўжо некалькі гадоў дзейнічаюць дастаткова строгія правілы ўзаемадзеяння дзяржавы і бізнесу з персанальнымі данымі грамадзян, такая недасканаласць стала нонсэнсам.
Менавіта гэта паслужыла фармальнай нагодай для абмежавання на выкарыстанне чат-бота ў Італіі. Таксама вядома, што падобную меру разглядаюць улады Германіі, Францыі і Ірландыі. Дыялог паміж урадамі еўрапейскіх дзяржаў і стваральнікамі GPT абцяжарвае адсутнасць у ЕС афіцыйнага прадстаўніцтва нейрасеткі.
Каласальныя перавагі...
Меркаванне аб тым, што штучны інтэлект зможа вырвацца за межы інтэрнэту і знішчыць усё існае, падтрымліваюць далёка не ўсе візіянеры. Больш за тое, супраць яго выступілі многія вядомыя заходнія вучоныя, якія, зрэшты, як і Юдкоўскі, прысвяцілі гэтай тэме амаль усё жыццё. Асноўным сапернікам Маска і яго прыхільнікаў стаў прадстаўнік папярэдняга пакалення гігантаў рынку — заснавальнік Mіcrosoft Біл Гейтс. «Не думаю, што, калі мы папросім адну пэўную групу распрацоўшчыкаў прыпыніць свае даследаванні, гэта нешта зменіць. Выкарыстанне штучнага інтэлекту нясе каласальныя перавагі. Гэта значыць, што нам проста трэба вызначыцца з наяўнымі рызыкамі», — заўважыў Гейтс.
Гэтыя рызыкі ён пералічыў у сваім артыкуле аб будучыні штучнага інтэлекту, які быў апублікаваны роўна за дзень да ліста Інстытута будучага жыцця. Гейтс разважае ў асноўным аб укладзе АІ у розныя сферы жыцця і аб перспектывах, якія адкрываюцца перад бізнесам.
Паводле даных McKіnsey, за апошнія пяць гадоў укараненні АІ павялічылася больш чым удвая. У 2017 годзе ўсяго 20 % рэспандэнтаў заявілі аб тым, што выкарыстоўваюць АІ хаця б у адной сферы бізнесу. Летась гэтая лічба дасягнула 50 %. Сярод самых папулярных магчымасцяў АІ, якія выкарыстоўваюць кампаніі, — аўтаматызацыя працэсаў (RPA), камп'ютарны зрок і разуменне натуральнай мовы, віртуальныя агенты і глыбокае навучанне.
Штучны інтэлект — адзін са складнікаў Чацвёртай прамысловай рэвалюцыі. Біл Гейтс заўважыў, што за ўсё жыццё бачыў дзве рэвалюцыйныя тэхналогіі. Першая — гэта графічны карыстальны інтэрфейс. Ён стаў папярэднікам аперацыйных сістэм і дапамог зрабіць камп'ютарныя вылічэнні даступнымі. Другая мадэль — GPT ад OpenAІ. Гейтс параўнаў развіццё АІ са стварэннем мікрапрацэсара, персанальнага камп'ютара, інтэрнэту і мабільнага тэлефона. Гэтак жа штучны інтэлект зменіць навучанне, падарожжы, медыцыну, камунікацыю.
У спіс складанасцяў Гейтс унёс тое, што штучны інтэлект не заўсёды разумее кантэкст запыту і дрэнна ўмее працаваць з абстрактнымі задачамі, а таксама тое, што яго можна будзе прымяняць у ваенных распрацоўках. Мільярдэр закрануў і пытанне звышразумных нейрасетак, праўда, да перспектывы іх з'яўлення ў найбліжэйшы час паставіўся скептычна. З ім згодныя аўтары праграмных артыкулаў і даследаванняў у галіне штучнага інтэлекту, у тым ліку і тыя, на каго спасылаюцца складальнікі ліста Інстытута будучыні жыцці. Напрыклад, дацэнт Універсітэта Канектыкута Шыры Доры-Хакоэн заявіла, што «нейрасеткам неабавязкова станавіцца звышразумнымі, каб павялічыць рызыкі
ядзернай вайны».
...і нябачаныя рызыкі
Як бы там ні было, шматлікія рызыкі выкарыстання АІ, у тым ліку і мімаходзь згаданыя Гейтсам, усё ж цалкам рэалістычныя. «Небяспека «занадта развітага АІ» заключаецца ў тым, што ён можа пазапаўняць каналы прапагандай, адабраць у людзей работу і прывесці да стварэння нечалавечага розуму, які здольны перахітрыць чалавека і зрабіць яго веды састарэлымі і непатрэбнымі. Людзям ужо зараз складана адрозніць фэйкі, згенерыраваныя штучным інтэлектам, ад праўды. Напрыклад, амаль 70 працэнтаў дарослых не могуць адрозніць ліст, напісаны ChatGPT, ад ліста, напісанага чалавекам. Нягледзячы на тое, што многія фантазіруюць аб паўстанні машын, думаю, насамрэч наступствы выхаду АІ з-пад кантролю могуць мець зусім іншую форму», — заўважыў lenta.ru кіруючы партнёр кампаніі Novo BІ Яўген Непейвода.
«Адзінае, у чым я бачу небяспеку і чаму, магчыма, варта абмяжоўваць выкарыстанне АІ, гэта тое, што цяпер нейрасеткі могуць прымяняцца для стварэння розных тэкстаў, навуковых артыкулаў, навін, — згаджаецца спецыяліст па кібербяспецы Уладзімір Ульянаў. — Чым больш распаўсюджваецца інфармацыя, тым складаней зразумець, кім яна створана і наколькі рэальная. Могуць з'яўляцца фэйкавыя інфападставы».
Тым часам стала вядома, што спецыялісты з Тэхаскага ўніверсітэта ў Осціне (ЗША) распрацавалі сістэму для пераводу думак чалавека ў тэкст. У яе аснове ляжыць моўная мадэль GPT, прычым самай першай версіі. Паведамляецца, што дэкодэр змог не толькі візуалізаваць, але таксама інтэрпрэтаваць сутнасць таго, што людзі слухалі, глядзелі ці ўяўлялі. Пры гэтым метад аказаўся неінвазіўным. Для счытвання даных выкарыстоўвалася тэхналогія функцыянальнай магнітна-рэзананснай тамаграфіі (ФМРТ), якая дазваляла адсочваць актыўнасць мозгу. Адзначаецца, што сістэма пакуль знаходзіцца на ранняй стадыі, аднак вынікі ўжо ўражваюць.
75-гадовы «хросны бацька» штучнага інтэлекту заўважыў New York Tіmes, што ён шкадуе аб праведзенай працы, маючы на ўвазе свой уклад у развіццё тэхналогіі, якая ляжыць у аснове чат-ботаў з АІ. Наватарскія даследаванні доктара Хінтана ў галіне глыбокага навучання і нейронавых сетак праклалі шлях для сучасных сістэм штучнага інтэлекту, такіх як ChatGPT. Пры гэтым навуковец канстатаваў, што «ўжо зараз мы бачым, як такія сістэмы, як GPT-4, засланяюць чалавека па агульнай эрудыцыі, прычым з вялікай перавагай». «Я суцяшаю сябе звычайным апраўданнем: калі б я гэтага не зрабіў, зрабіў бы нехта іншы», — адзначыў Джэфры Хінтан у інтэрв'ю газеце.
Захар Бурак
Звязда, 7 траўня 2023
Звязда, 7 траўня 2023
Кoличество переходов на страницу: 243
Версия для печати | Сообщить администратору | Сообщить об ошибке | Вставить в блог |