Prijavite se

Izveštaj

Водич за креаторе политике: Процена технологија које се брзо развијају, укључујући вештачку интелигенцију, велике језичке моделе и даље

У овом раду ИСЦ истражује нацрт оквира за информисање креатора политике о вишеструким глобалним и националним дискусијама које се воде у вези са АИ.

ИСЦ-ов водич нуди свеобухватан оквир осмишљен да премости јаз између принципа на високом нивоу и практичне политике која се може применити. Он одговара на хитну потребу за заједничким разумевањем могућности и ризика које представљају нове технологије. Ово је суштински документ за оне који раде на вези са политикама у нашој дигиталној ери која се брзо мења.

Оквир истражује потенцијал вештачке интелигенције и њених деривата кроз свеобухватно сочиво, обухватајући људско и друштвено благостање заједно са спољним факторима као што су економија, политика, животна средина и безбедност. Неки аспекти контролне листе могу бити релевантнији од других, у зависности од контекста, али изгледа да су боље одлуке вероватније ако се узму у обзир сви домени, чак и ако се неки брзо могу идентификовати као ирелевантни у одређеним случајевима. Ово је инхерентна вредност приступа контролне листе.

„У ери обиљеженој брзим технолошким иновацијама и сложеним глобалним изазовима, ИСЦ-ов оквир за свеобухватну и вишедимензионалну анализу потенцијалних утицаја оснажује лидере да доносе информисане, одговорне одлуке. То осигурава да, како технолошки напредујемо, то радимо уз пажљиво разматрање етичких, друштвених и економских импликација”.

Peter Глукман, председник ISC-а

Иако су УНЕСКО, ОЕЦД, Европска комисија и УН прогласили принципе на високом нивоу, између осталих, а разне дискусије се настављају у вези са питањима потенцијалног управљања, регулативе, етике и безбедности, постоји велики јаз између таквих принципа и управљања или регулаторног оквира. ИСЦ решава ову потребу кроз свој нови водич за креаторе политике.

Овај водич за креаторе политике нема за циљ да забрани регулаторни режим, већ да предложи адаптивни и еволуирајући аналитички оквир који би могао да подупре било коју процену и регулаторне процесе које би могле да развију заинтересоване стране, укључујући владе и мултилатерални систем.

„Оквир је критичан корак у глобалном разговору о вештачкој интелигенцији јер пружа основу на којој можемо да изградимо консензус о импликацијама технологије за сада и за будућност“. 

Хема Сридхар, бивша главна саветница за науку, Министарство одбране, Нови Зеланд, а сада виша истраживачица Fellow, Универзитет у Окланду, Нови Зеланд.

Од октобра 2023. године, било је неколико значајних националних и мултилатералних иницијатива са даљим разматрањем етике и безбедности АИ. Импликације вештачке интелигенције на интегритет неких наших критичних система, укључујући финансијске, владине, правне и образовне, као и различите системе знања (укључујући научно и домаће знање), изазивају све већу забринутост. Оквир даље одражава ове аспекте.

Повратне информације добијене од чланова ИСЦ-а и међународне заједнице за креирање политике до данас се одражавају у ревидираној верзији аналитичког оквира, који је сада објављен као водич за креаторе политике.

Водич за креаторе политике: Процена технологија које се брзо развијају, укључујући вештачку интелигенцију, велике језичке моделе и даље

Овај документ за дискусију даје нацрт почетног оквира за информисање вишеструких глобалних и националних дискусија које се воде у вези са АИ.

Оквир за употребу у вашој организацији

Преузмите оквир за употребу у вашој организацији

Овде пружамо оквирни алат као Екцел табелу која се може уређивати за употребу у вашој организацији. Ако више волите формат отвореног кода, контактирајте [емаил заштићен].

Увод

Технологије које се брзо појављују представљају изазовна питања када је у питању њихова употреба, управљање и потенцијална регулација. Текућа политика и јавне дебате о вештачкој интелигенцији (АИ) и њеној употреби довели су ова питања у акутан фокус. Унеско, ОЕЦД, УН и други објавили су широке принципе за АИ, укључујући Блетцхлеи декларацију Уједињеног Краљевства, а појављују се и покушаји јурисдикције да се регулишу аспекти технологије кроз, на пример, АИ Европске уније (ЕУ). Закон или недавна извршна наредба Сједињених Држава о вештачкој интелигенцији.

Док се употреба вештачке интелигенције нашироко расправља у овим и другим форумима, преко геополитичких подела иу земљама на свим нивоима прихода, остаје онтолошки јаз између развоја принципа високог нивоа и њиховог укључивања у праксу било кроз регулативу, политику, управљање или приступи управљања. Пут од принципа до праксе је лоше дефинисан, али с обзиром на природу и ритам развоја и примене вештачке интелигенције, разноврсност укључених интереса и опсег могућих примена, било који приступ не може бити претерано генерички или прописан.

Из ових разлога, невладина научна заједница наставља да игра посебну улогу. Међународни научни савет (ИСЦ) – са својим плуралистичким чланством из друштвених и природних наука – објавио је документ за дискусију у октобру 2023. у којем је представљен прелиминарни аналитички оквир који разматра ризике, користи, претње и могућности повезане са дигиталном технологијом која се брзо креће. Иако је развијен да узме у обзир АИ, он је инхерентно агностик технологије и може се применити на низ нових и разорних технологија, као што су синтетичка биологија и квантна. Тај документ за дискусију је позвао на повратне информације од академика и креатора политике. Огромне повратне информације учиниле су спровођење такве анализе неопходним и представљале су вредан приступ за решавање нових технологија попут вештачке интелигенције.

Сврха оквира је да пружи алат за информисање свих заинтересованих страна – укључујући владе, трговинске преговараче, регулаторе, цивилно друштво и индустрију – о еволуцији ових технологија како би им помогао да осмисле како би могли да размотре импликације, позитивне или негативне, сама технологија, а тачније њена посебна примена. Овај аналитички оквир је развијен независно од интереса владе и индустрије. Она је максимално плуралистичка у својим перспективама, обухватајући све аспекте технологије и њене импликације на основу опсежних консултација и повратних информација.

Овај документ за дискусију за креаторе политике нема за циљ да забрани регулаторни режим, већ пре да предложи адаптивни аналитички оквир који се развија који би могао да подупре било коју процену и регулаторне процесе које би могле да развију заинтересоване стране, укључујући владе и мултилатерални систем.

Пошто доносиоци одлука на глобалном и националном нивоу разматрају одговарајуће поставке политике и полуге како би уравнотежили ризике и користи од нове технологије као што је АИ, аналитички оквир је замишљен као комплементарно средство како би се осигурало да се комплетан скуп потенцијалних импликација адекватно одрази.

Позадина: зашто аналитички оквир?

Брза појава технологија са сложеношћу и импликацијама вештачке интелигенције покреће многе тврдње од велике користи. Међутим, изазива и страх од значајних ризика, од индивидуалног до геостратешког нивоа.1 Већи део дискусије до данас је разматран у бинарном смислу, јер јавно изражени ставови имају тенденцију да се одвијају на крајњим крајевима спектра. Тврдње за или против вештачке интелигенције често су хиперболичне и – с обзиром на природу технологије – тешко их је проценити.

Неопходан је прагматичнији приступ где се хипербола замењује калибрисаним и детаљнијим проценама. Технологија вештачке интелигенције ће наставити да се развија, а историја показује да практично свака технологија има и корисну и штетну употребу. Стога се поставља питање: како можемо постићи корисне резултате ове технологије, а да притом смањимо ризик од штетних последица, од којих би неке могле бити егзистенцијалне?

Будућност је увек неизвесна, али постоји довољно кредибилних и стручних гласова у вези са вештачком интелигенцијом и генеративном вештачком интелигенцијом да се подстакне релативно опрезан приступ. Поред тога, системски приступ је неопходан јер је АИ класа технологија са широком употребом и применом од стране више типова корисника. То значи да се мора узети у обзир пуни контекст када се разматрају импликације употребе АИ за појединце, друштвени живот, грађански живот, друштвени живот иу глобалном контексту.

За разлику од већине других технологија, за дигиталне и сродне технологије, време између развоја, издавања и примене је изузетно кратко, у великој мери вођено интересима продукцијских компанија или агенција. По својој природи – и с обзиром да је заснована на дигиталној кичми – АИ ће имати апликације које се брзо шире, као што се већ видело развојем великих језичких модела. Као резултат тога, нека својства могу постати очигледна тек након објављивања, што значи да постоји ризик од непредвиђених последица, како злонамерних тако и добронамерних.

Важне димензије друштвених вредности, посебно у различитим регионима и културама, ће утицати на то како ће било која употреба бити перципирана и прихваћена. Штавише, геостратешки интереси већ доминирају дискусијом, при чему се суверени и мултилатерални интереси непрекидно укрштају и на тај начин покрећу конкуренцију и поделе.

До данас, велики део регулације виртуелне технологије је углавном посматран кроз сочиво „принципа“ и добровољног поштовања, иако са Законом о вештачкој интелигенцији ЕУ2 и слично видимо помак ка спроводљивијим, али донекле уским прописима. Успостављање ефективног глобалног или националног управљања технологијом и/или регулаторног система остаје изазов и не постоји очигледно решење. Дуж ланца биће потребно више слојева доношења одлука заснованих на ризику, од проналазача до произвођача, до корисника, владе и мултилатералног система.

Иако су Унеско, ОЕЦД, Европска комисија и УН, између осталих, прогласили принципе на високом нивоу, а различите дискусије на високом нивоу се настављају у вези са питањима потенцијалног управљања, регулативе, етике и безбедности, постоји велики јаз између таквих принципе и управљачки или регулаторни оквир. Ово треба да се реши.

Као почетну тачку, ИСЦ разматра развој таксономије разматрања на које би се сваки програмер, регулатор, саветник за политику, потрошач или доносилац одлука могао позвати. С обзиром на широке импликације ових технологија, таква таксономија мора узети у обзир свеукупност импликација, а не уско фокусирано уоквиривање. Глобална фрагментација се повећава због утицаја геостратешких интереса на доношење одлука, а с обзиром на хитност ове технологије, неопходно је да независни и неутрални гласови упорно заговарају јединствен и инклузиван приступ.


1) Хиндустан Тимес. 2023. Г20 мора да успостави међународни панел за технолошке промене.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЕУ о вештачкој интелигенцији. 2023. хттпс://артифициалинтеллигенцеацт.еу

Развој аналитичког оквира

ИСЦ је примарна глобална невладина организација која интегрише природне и друштвене науке. Његов глобални и дисциплински домет значи да је у доброј позицији да генерише независне и глобално релевантне савете за информисање о сложеним изборима који су пред нама, посебно зато што тренутни гласови у овој арени углавном долазе из индустрије или из политичких и политичких заједница великих технолошких сила.

Након периода опсежне дискусије, која је укључивала разматрање невладиног процеса процене, ИСЦ је закључио да би његов најкориснији допринос био стварање адаптивног аналитичког оквира који се може користити као основа за дискурс и доношење одлука од стране свих заинтересоване стране, укључујући и током свих формалних процеса процене који се појаве.

Прелиминарни аналитички оквир, који је објављен за дискусију и повратне информације у октобру 2023. године, имао је облик свеобухватне контролне листе дизајниране за употребу и од стране владиних и невладиних институција. Оквир је идентификовао и истражио потенцијал технологије као што је вештачка интелигенција и њени деривати кроз широку сочиву која обухвата људско и друштвено благостање, као и спољне факторе као што су економија, политика, животна средина и безбедност. Неки аспекти контролне листе могу бити релевантнији од других, у зависности од контекста, али изгледа да су боље одлуке вероватније ако се узму у обзир сви домени, чак и ако се неки брзо могу идентификовати као ирелевантни у одређеним случајевима. Ово је инхерентна вредност приступа контролне листе.

Прелиминарни оквир је изведен из претходног рада и размишљања, укључујући извештај Међународне мреже за владине научне савете (ИНГСА) о дигиталном благостању3 и Оквир ОЕЦД-а за класификацију система вештачке интелигенције,4 како би се представиле све потенцијалне могућности, ризици и утицаји оф АИ. Ови претходни производи су били ограниченији у својој намери с обзиром на време и контекст; постоји потреба за свеобухватним оквиром који представља читав низ питања како краткорочно тако и дугорочно.

Од објављивања, документ за дискусију је добио значајну подршку многих стручњака и креатора политике. Многи су посебно подржали препоруку за развој адаптивног оквира који омогућава намјерно и проактивно разматрање ризика и импликација технологије, и притом се увијек узима у обзир свеукупност димензија од појединца до друштва и система.

Једно од кључних запажања добијених кроз повратне информације било је признање да су неке од импликација које се разматрају у оквиру саме по себи вишеструке и да се протежу на више категорија. На пример, дезинформације би се могле разматрати и из индивидуалног и из геостратешког сочива; тако би последице биле широке.

Такође је предложена опција укључивања студија случаја или примера за тестирање оквира. Ово би се могло користити за израду смерница које ће показати како се може користити у пракси у различитим контекстима. Међутим, ово би био значајан подухват и могао би ограничити начин на који различите групе виде употребу овог оквира. То најбоље раде креатори политике који раде са стручњацима у одређеним јурисдикцијама или контекстима.

Од октобра 2023. године, било је неколико значајних националних и мултилатералних иницијатива са даљим разматрањем етике и безбедности АИ. Импликације вештачке интелигенције на интегритет неких наших критичних система, укључујући финансијске, владине, правне и образовне, као и различите системе знања (укључујући научно и домаће знање), изазивају све већу забринутост. Ревидирани оквир даље одражава ове аспекте.

Повратне информације добијене до данас одражавају се у ревидираној верзији аналитичког оквира, који је сада објављен као водич за креаторе политике.

Док је оквир представљен у контексту вештачке интелигенције и сродних технологија, он је одмах преносив на разматрања других технологија које се брзо појављују као што су квантна и синтетичка биологија.


3) Глуцкман, П. и Аллен, К. 2018. Разумевање благостања у контексту брзих дигиталних и повезаних трансформација. ИНГСА.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОЕЦД. 2022. Оквир ОЕЦД-а за класификацију система вештачке интелигенције. ОЕЦД документи о дигиталној економији, бр. 323, бр. Париз, ОЕЦД Публисхинг.
https://oecd.ai/en/classificatio

Оквир

Следећа табела представља димензије претпостављеног аналитичког оквира. Примери су дати да илуструју зашто сваки домен може бити важан; у контексту, оквир би захтевао контекстуално релевантно проширење. Такође је важно направити разлику између генеричких проблема који се јављају током развоја платформе и оних који се могу појавити током специфичних апликација. Ниједно једно разматрање укључено овде не треба да се третира као приоритет и, као такво, све треба испитати.

Питања су широко груписана у следеће категорије као што је наведено у наставку:

  • Благостање (укључујући и појединца или себе, друштво, друштвени живот и грађански живот)
  • Трговина и привреда
  • еколошки
  • Геостратешки и геополитички
  • Технолошки (карактеристике система, дизајн и употреба)

Табела даје детаље о димензијама које би можда требало узети у обзир приликом процене нове технологије.

? ИНГСА. 2018. Разумевање благостања у контексту брзих дигиталних и повезаних трансформација.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

? Нови дескриптори (добијени кроз опсежне консултације и повратне информације и преглед литературе)

? Оквир ОЕЦД-а за класификацију система вештачке интелигенције: алат за ефикасне политике вештачке интелигенције.
https://oecd.ai/en/classification

Димензије утицаја: Појединац / Ја

kriterijumiПримери како се то може одразити у анализи
?Корисничка АИ компетенцијаКолико су компетентни и свесни карактеристика система вероватни корисници који ће комуницирати са системом? Како ће им бити пружене релевантне корисничке информације и упозорења?
? Заинтересована странаКо су примарни актери на које ће систем утицати (појединци, заједнице, угрожени, секторски радници, деца, креатори политике, професионалци итд.)?
? ОпционалностДа ли се корисницима пружа могућност да одустану од система или им се даје могућност да изазову или исправе резултате?
?Ризици по људска права и демократске вредностиДа ли систем суштински утиче на људска права, укључујући, али не ограничавајући се на приватност, слободу изражавања, правичност, недискриминаторност итд.?
?Потенцијални ефекти на добробит људиДа ли се области утицаја система односе на добробит појединца (квалитет посла, образовање, друштвене интеракције, ментално здравље, идентитет, окружење итд.)?
? Потенцијал за расељавање људске радне снагеДа ли постоји потенцијал да систем аутоматизује задатке или функције које су извршавали људи? Ако јесте, које су последице низводно?
? Потенцијал за манипулацију идентитетом, вредностима или знањемДа ли је систем дизајниран или потенцијално способан да манипулише идентитетом корисника или
постављене вредности или ширење дезинформација?
? Могућности за самоизражавање и самоактуализацијуПостоји ли потенцијал за измишљотине и сумње у себе? Постоји ли потенцијал за лажне или
непроверљиве тврдње о стручности?
? Мере самопоштовањаПостоји ли притисак да се прикаже идеализовано ја? Може ли аутоматизација заменити смисао
личног испуњења? Постоји ли притисак да се такмичи са системом у
радно место? Да ли је репутацију појединца теже заштитити од дезинформација?
? ПриватностДа ли постоје раширене одговорности за очување приватности и да ли их има
да ли се праве претпоставке о томе како се користе лични подаци?
? АутономијаДа ли би систем вештачке интелигенције могао да утиче на људску аутономију генеришући претерано ослањање на
крајњи корисници?
? Људски развојДа ли постоји утицај на стицање кључних вештина за људски развој, као нпр
извршне функције или интерперсоналне вештине, или промене у времену пажње које утичу
учење, развој личности, забринутост за ментално здравље итд.?
? Лична здравствена његаДа ли постоје тврдње о самодијагнози или персонализованим решењима здравствене заштите? Ако је тако,
да ли су валидирани у складу са регулаторним стандардима?
? Ментално здрављеДа ли постоји ризик од повећане анксиозности, усамљености или других проблема са менталним здрављем, или
може ли технологија ублажити такве утицаје?
? Људска еволуцијаДа ли би велики језички модели и вештачка општа интелигенција могли да промене
ток људске еволуције?
? Интеракција човек-машинаДа ли употреба може довести до губитка вештина и зависности током времена за појединце? Аре
да ли има утицаја на људску интеракцију?
5) Технолошки критеријуми који се разматрају у оквиру су посебно за АИ и биће потребно ревидирати за друге технологије према потреби.

Димензије утицаја: Друштво/друштвени живот

kriterijumi Примери како се то може одразити у анализи
? Друштвене вредностиДа ли систем суштински мења природу друштва, омогућава нормализацију идеја које су се раније сматрале антисоцијалним, или нарушава друштвене вредности културе у којој се примењује?
? Друштвене интеракцијеДа ли постоји утицај на смислен људски контакт, укључујући емоционалне односе?
? Здравље становништваДа ли постоји потенцијал да систем унапреди или поткопа здравствене намере становништва?
? Културни изразДа ли је повећање културног присвајања или дискриминације вјероватно или теже рјешавати? Да ли ослањање на систем доношења одлука искључује или маргинализује културно релевантне друштвене везе?
? Народно образовањеДа ли постоји утицај на улоге наставника или образовне институције? Да ли систем наглашава или смањује дигитални јаз и неједнакост међу студентима? Да ли је суштинска вредност знања или критичког разумевања напредна или поткопана?
? Искривљене реалностиДа ли су методе које се користе да се утврди шта је истина и даље применљиве? Да ли је перцепција стварности угрожена?

Димензије утицаја: Економски контекст (трговина)

kriterijumiПримери како се то може одразити у анализи
? Индустријски секторУ ком индустријском сектору је систем распоређен (финансије, пољопривреда, здравство, образовање, одбрана итд.)?
? Пословни моделУ којој пословној функцији се систем користи и у ком својству? Где се систем користи (приватни, јавни, непрофитни)?
? Утицаји на критичне активности Да ли би поремећај функције или активности система утицао на основне услуге или критичну инфраструктуру?
?Ширина применеКако је систем распоређен (уска употреба унутар јединице у односу на широко распрострањена на националном/међународном нивоу)?
? Техничка зрелостКолико је систем технички зрео?
? Интероперабилност Да ли ће вероватно постојати силоси, на националном или глобалном нивоу, који коче слободну трговину и утичу на сарадњу са партнерима?
? Технолошки суверенитетДа ли жеља за технолошким суверенитетом покреће понашање, укључујући контролу над целим ланцем снабдевања вештачком интелигенцијом?
? Прерасподела дохотка и националне фискалне полугеДа ли би кључне улоге суверене државе могле бити угрожене (нпр. резервне банке)? Да ли ће способност државе да испуни очекивања и импликације грађана (друштвене, економске, политичке итд.) бити унапређена или смањена?
? Дигитални јаз (АИ дивиде) Да ли се постојеће дигиталне неједнакости погоршавају или стварају нове?

Димензије утицаја: Грађански живот

kriterijumiПримери како се то може одразити у анализи
? Управљање и јавна службаДа ли се на механизме управљања и глобални систем управљања може утицати позитивно или негативно?
? Новински медијиДа ли је вјероватно да ће јавни дискурс постати поларизован и укоријењен на нивоу становништва? Да ли ће бити утицаја на нивое поверења у Четврти сталеж? Да ли ће се даље утицати на конвенционалну новинарску етику и стандарде интегритета?
? Владавина праваДа ли ће бити утицаја на способност да се идентификују појединци или организације које треба сматрати одговорним (нпр. коју врсту одговорности доделити алгоритму за негативне исходе)? Да ли је дошло до губитка суверенитета (еколошка, фискална, социјална политика, етика итд.)?
?Политика и друштвена кохезијаПостоји ли могућност више укоријењених политичких ставова и мање могућности за изградњу консензуса? Постоји ли могућност даљег маргинализовања група? Да ли су супротстављени стилови политике мање или више вероватни?
? Социјална лиценцаДа ли постоје забринутости за приватност, питања поверења и моралне бриге које треба размотрити да би заинтересоване стране прихватиле употребу?
? Домородачко знањеДа ли би знање и подаци домородачког становништва могли бити оштећени или присвојени? Да ли постоје адекватне мере за заштиту од лажног представљања, дезинформација и експлоатације?
? Научни системДа ли је академски и истраживачки интегритет угрожен? Да ли се губи поверење у науку? Да ли постоје могућности злоупотребе, прекомерне употребе или злоупотребе? Шта је последица бављења науком?

Димензије утицаја: геостратешки/геополитички контекст

kriterijumiПримери како се то може одразити у анализи
? Прецизан надзорДа ли су системи обучени на основу индивидуалних бихевиоралних и биолошких података и да ли се могу користити за експлоатацију појединаца или група?
? Дигитално такмичењеДа ли би државни или недржавни актери (нпр. велике технолошке компаније) могли да искористе системе и податке да разумеју и контролишу становништво и екосистеме других земаља, или да поткопају јурисдикциону контролу?
? Геополитичко такмичењеДа ли би систем могао да изазове такмичење између нација око искориштавања појединачних и групних података за економске, медицинске и безбедносне интересе?
? Промена глобалних силаДа ли је угрожен статус националних држава као примарних светских геополитичких актера? Да ли технолошке компаније имају моћ која је некада била резервисана за националне државе и да ли су постале независни, суверени актери (настајуће технополарни светски поредак)?
? ДезинформацијеДа ли би систем олакшао производњу и ширење дезинформација од стране државних и недржавних актера са утицајем на друштвену кохезију, поверење и демократију?
? Апликације двоструке употребеДа ли постоји могућност за војну примену и за цивилну употребу?
? Фрагментација глобалног пореткаДа ли би се могли развити силоси или групе прописа и усклађености који ометају сарадњу, доводе до недоследности у примени и стварају простор за конфликт?

Димензије утицаја: Еколошка

kriterijumiПримери како се то може одразити у анализи
? Потрошња енергије и ресурса (угљенични отисак)Да ли систем и захтеви повећавају потрошњу енергије и ресурса преко и изнад повећања ефикасности добијеног применом?
?Извор енергијеОдакле се добија енергија за систем (обновљиви у односу на фосилна горива итд.)?

Димензије утицаја: Подаци и унос

kriterijumiПримери како се то може одразити у анализи
? Правац и прикупљањеДа ли податке и унос прикупљају људи, аутоматизовани сензори или обоје?
? Порекло податакаДа ли су подаци и инпути од стручњака обезбеђени, посматрани, синтетички или изведени? Да ли постоје заштите воденог жига за потврду порекла?
? Динамичка природа податакаДа ли се подаци динамички, статични, динамички ажурирају с времена на време или у реалном времену?
? праваДа ли су подаци власнички, јавни или лични (у вези са појединцима који се могу идентификовати)?
? Идентификација и лични подациАко су лични, да ли су подаци анонимни или псеудонимизовани?
? Структура податакаДа ли су подаци структурирани, полуструктурирани, сложено структурирани или неструктурирани?
? Формат податакаДа ли је формат података и метаподатака стандардизован или нестандардизован?
? Скала податакаКоја је скала скупа података?
? Прикладност и квалитет података Да ли скуп података одговара сврси? Да ли је величина узорка адекватна? Да ли је довољно репрезентативан и комплетан? Колико су бучни подаци? Да ли је склон грешкама?

Димензије удара: Модел

kriterijumiПримери како се то може одразити у анализи
? Доступност информацијаДа ли су доступне информације о моделу система?
? Тип АИ моделаДа ли је модел симболичан (правила створена од стране људи), статистички (користи податке) или хибридан?
? Права повезана са моделомДа ли је модел отвореног кода или власнички, којим управљају сами или треће стране?
? Један од више моделаДа ли се систем састоји од једног модела или више међусобно повезаних модела?
? Генеративно или дискриминативноДа ли је модел генеративан, дискриминативан или обоје?
? Изградња моделаДа ли систем учи на основу правила која су написали људи, из података, кроз учење под надзором или кроз учење уз помоћ?
? Еволуција модела (АИ дрифт)Да ли се модел развија и/или стиче способности из интеракције са подацима на терену?
? Федерално или централно учењеДа ли се модел обучава централно или на неколико локалних сервера или 'ивичних' уређаја?
? Развој/одржавањеДа ли је модел универзалан, прилагодљив или прилагођен подацима актера АИ?
? Детерминистички или пробабилистички Да ли се модел користи на детерминистички или вероватноћасти начин?
? Транспарентност модела Да ли су информације доступне корисницима које им омогућавају да разумеју резултате модела и ограничења или користе ограничења?
? Рачунско ограничењеПостоје ли рачунска ограничења за систем? Да ли је могуће предвидети скокове способности или законе скалирања?

Димензије утицаја: Задатак и резултат

kriterijumiПримери како се то може одразити у анализи
? Задатак(и) које обавља системКоје задатке систем обавља (препознавање, откривање догађаја, предвиђање итд.)?
? Комбиновање задатака и радњиДа ли систем комбинује неколико задатака и радњи (системи за генерисање садржаја, аутономни системи, системи управљања итд.)?
? Ниво аутономије система Колико су акције система аутономне и какву улогу играју људи?
? Степен људске укљученостиДа ли постоји неко људско учешће да би се надгледала укупна активност АИ система и способност одлучивања када и како користити систем АИ у било којој ситуацији?
? Основна апликацијаДа ли систем припада основној области примене као што су технологије људског језика, компјутерски вид, аутоматизација и/или оптимизација или роботика?
? ЕвалуацијаДа ли су доступни стандарди или методе за процену резултата система?

Како би се овај оквир могао користити?

Овај оквир се може користити на много начина, укључујући:

  • Премостити јаз између принципа на високом нивоу и процене у регулаторне или управне сврхе. Оквир може подржати ово успостављањем валидиране заједничке таксономије низа питања која заслужују разматрање релевантних заинтересованих страна као основу за информисање и обликовање даљег размишљања. На пример, на националном нивоу, оквир би могао да се користи као алат од стране владе док развија националну стратегију и политике вештачке интелигенције за успостављање заједничке основе за ризике и могућности међу групама заинтересованих страна.
  • Информисати о процени утицаја. Закон о вештачкој интелигенцији ЕУ захтева од организација које обезбеђују АИ алате или усвајају вештачку интелигенцију у својим процесима да предузму процену утицаја како би идентификовале ризик својих иницијатива и примениле одговарајући приступ управљању ризиком. Оквир који је овде представљен би се могао користити као основа за ово.
  • Информисати скенирање хоризонта за ризике и будуће сценарије. Категоризација ризика у Привременом извештају Саветодавног тела УН за вештачку интелигенцију6 је у великој мери усклађена са оквиром који је овде представљен. Постоји прилика да се оквир искористи за постизање консензуса и тестирање озбиљности ризика који се појављују, као и за њихово спречавање.
  • Да побољшамо етичке принципе потребне за вођење и управљање употребом АИ. Оквир то може учинити тако што ће обезбедити флексибилну основу на којој се могу развити поуздани системи и обезбедити закониту, етичку, робусну и одговорну употребу технологије. Ови принципи би се могли тестирати у односу на читав низ утицаја представљених у овом оквиру.
  • Олакшати преглед постојећих и мера које се развијају (регулаторне, законодавне, политике, стандарди, управљање итд.) и идентификовати недостатке које је потребно даље размотрити. Оне би се могле мапирати према оквирним категоријама на националном или мултинационалном нивоу како би се утврдиле празнине и идентификовале одговарајуће мере за ублажавање ризика.
  • Да подржи владину употребу вештачке интелигенције. Како многе владе одређују своје стратегије за коришћење вештачке интелигенције унутар агенција и система, оквир би се могао користити за дефинисање одговарајућих прагова ризика и идентификацију кључних актера и одговорности.
  • Подржати јавни дискурс и успоставити друштвену лиценцу о томе како се АИ користи и основни подаци који ће се користити у државним службама или шире у друштву.

Пут напред
Укратко, аналитички оквир је обезбеђен као основа комплета алата који би заинтересоване стране могле да користе да свеобухватно сагледају било који значајан развој платформи или коришћења на доследан и систематичан начин. Димензије представљене у овом оквиру су релевантне од процене технологије до јавне политике, од људског развоја до социологије, и студија будућности и технологије. Иако је развијен за АИ, овај аналитички оквир има много ширу примену на било коју другу технологију у настајању.

6 Саветодавни одбор УН АИ. 2023. Привремени извештај: Управљање вештачком интелигенцијом за човечанство. хттпс://ввв.ун.орг/ситес/ун2.ун.орг/филес/аи_адвисори_боди_интерим_репорт.пд

Признања

Много људи је консултовано и пружило је повратне информације током развоја како почетног документа за дискусију, тако и повратних информација након његовог објављивања. Оба документа су састављена од стране Sir Peter Gluckman, председник, ISC и Хема Сридхар, бивша главна саветница за науку, Министарство одбране, Нови Зеланд, а сада виша истраживачица Fellow, Универзитет у Окланду, Нови Зеланд.

Конкретно, ИСЦ Лорд Мартин Реес, бивши председник Краљевског друштва и суоснивач Центра за проучавање егзистенцијалних ризика Универзитета у Кембриџу; Професор Схиваји Сондхи, професор физике, Универзитет у Оксфорду; Професор К Вијаи Рагхаван, бивши главни научни саветник у Влади Индије; Амандееп Сингх Гилл, изасланик генералног секретара УН за технологију; Сеан О хЕигеартаигх, извршни директор, Центар за проучавање егзистенцијалних ризика, Универзитет у Кембриџу; Сир Давид Спиегелхалтер, Винтон професор јавног разумевања ризика на Универзитету
оф Цамбридге; Аманда-Јуне Бравнер, виши саветник за политику и Иан Виггинс, директор за међународне послове, Краљевско друштво, Уједињено Краљевство; Др Јероме Дуберри, генерални директор и др Марие-Лауре Саллес, директор, Женевски постдипломски институт; Цхор Пхарн Лее, Центар за стратешку будућност, Канцеларија премијера, Сингапур; Баренд Монс и др Симон Ходсон, Комитет за податке (ЦоДАТА); Професор Иуко Хараиама, бивши извршни директор, РИКЕН; Професор
Реми Квирион, председник, ИНГСА; Др Цлаире Цраиг, Универзитет у Оксфорду и бивши шеф предвиђања, Владина канцеларија за науку; Проф. Јосхуа Бенгио, Научни саветодавни одбор генералног секретара УН и на Универзитету у Монтреалу; и многи други који су дали повратне информације ИСЦ-у о почетном документу за дискусију.


Даље читање

Припрема националних истраживачких екосистема за АИ: стратегије и напредак у 2024

Овај радни документ ИСЦ-овог истраживачког центра, Центра за научну будућност, пружа основне информације и приступ ресурсима из земаља из свих делова света, у различитим фазама интеграције АИ у њихове истраживачке екосистеме.


три истраживача воде дискусију

Изградња научних система спремних за будућност на глобалном Југу

Нове технологије мењају начин на који се наука спроводи и нуде значајан потенцијал за јачање научних система на глобалном Југу – ако је њихово усвајање вођено инклузивним, добро подржаним и контекстуално осетљивим приступима. Како осигурати да ове технологије доприносе праведнијим и отпорнијим научним системима, уместо да појачавају постојеће неједнакости, био је централни фокус овог недавног стратешког повлачења.