ИСЦ-ов водич нуди свеобухватан оквир осмишљен да премости јаз између принципа на високом нивоу и практичне политике која се може применити. Он одговара на хитну потребу за заједничким разумевањем могућности и ризика које представљају нове технологије. Ово је суштински документ за оне који раде на вези са политикама у нашој дигиталној ери која се брзо мења.
Оквир истражује потенцијал вештачке интелигенције и њених деривата кроз свеобухватно сочиво, обухватајући људско и друштвено благостање заједно са спољним факторима као што су економија, политика, животна средина и безбедност. Неки аспекти контролне листе могу бити релевантнији од других, у зависности од контекста, али изгледа да су боље одлуке вероватније ако се узму у обзир сви домени, чак и ако се неки брзо могу идентификовати као ирелевантни у одређеним случајевима. Ово је инхерентна вредност приступа контролне листе.
„У ери обиљеженој брзим технолошким иновацијама и сложеним глобалним изазовима, ИСЦ-ов оквир за свеобухватну и вишедимензионалну анализу потенцијалних утицаја оснажује лидере да доносе информисане, одговорне одлуке. То осигурава да, како технолошки напредујемо, то радимо уз пажљиво разматрање етичких, друштвених и економских импликација”.
Peter Глукман, председник ISC-а
Иако су УНЕСКО, ОЕЦД, Европска комисија и УН прогласили принципе на високом нивоу, између осталих, а разне дискусије се настављају у вези са питањима потенцијалног управљања, регулативе, етике и безбедности, постоји велики јаз између таквих принципа и управљања или регулаторног оквира. ИСЦ решава ову потребу кроз свој нови водич за креаторе политике.
Овај водич за креаторе политике нема за циљ да забрани регулаторни режим, већ да предложи адаптивни и еволуирајући аналитички оквир који би могао да подупре било коју процену и регулаторне процесе које би могле да развију заинтересоване стране, укључујући владе и мултилатерални систем.
„Оквир је критичан корак у глобалном разговору о вештачкој интелигенцији јер пружа основу на којој можемо да изградимо консензус о импликацијама технологије за сада и за будућност“.
Хема Сридхар, бивша главна саветница за науку, Министарство одбране, Нови Зеланд, а сада виша истраживачица Fellow, Универзитет у Окланду, Нови Зеланд.
Од октобра 2023. године, било је неколико значајних националних и мултилатералних иницијатива са даљим разматрањем етике и безбедности АИ. Импликације вештачке интелигенције на интегритет неких наших критичних система, укључујући финансијске, владине, правне и образовне, као и различите системе знања (укључујући научно и домаће знање), изазивају све већу забринутост. Оквир даље одражава ове аспекте.
Повратне информације добијене од чланова ИСЦ-а и међународне заједнице за креирање политике до данас се одражавају у ревидираној верзији аналитичког оквира, који је сада објављен као водич за креаторе политике.
Водич за креаторе политике: Процена технологија које се брзо развијају, укључујући вештачку интелигенцију, велике језичке моделе и даље
Овај документ за дискусију даје нацрт почетног оквира за информисање вишеструких глобалних и националних дискусија које се воде у вези са АИ.
Преузмите оквир за употребу у вашој организацији
Овде пружамо оквирни алат као Екцел табелу која се може уређивати за употребу у вашој организацији. Ако више волите формат отвореног кода, контактирајте [емаил заштићен].
Увод
Технологије које се брзо појављују представљају изазовна питања када је у питању њихова употреба, управљање и потенцијална регулација. Текућа политика и јавне дебате о вештачкој интелигенцији (АИ) и њеној употреби довели су ова питања у акутан фокус. Унеско, ОЕЦД, УН и други објавили су широке принципе за АИ, укључујући Блетцхлеи декларацију Уједињеног Краљевства, а појављују се и покушаји јурисдикције да се регулишу аспекти технологије кроз, на пример, АИ Европске уније (ЕУ). Закон или недавна извршна наредба Сједињених Држава о вештачкој интелигенцији.
Док се употреба вештачке интелигенције нашироко расправља у овим и другим форумима, преко геополитичких подела иу земљама на свим нивоима прихода, остаје онтолошки јаз између развоја принципа високог нивоа и њиховог укључивања у праксу било кроз регулативу, политику, управљање или приступи управљања. Пут од принципа до праксе је лоше дефинисан, али с обзиром на природу и ритам развоја и примене вештачке интелигенције, разноврсност укључених интереса и опсег могућих примена, било који приступ не може бити претерано генерички или прописан.
Из ових разлога, невладина научна заједница наставља да игра посебну улогу. Међународни научни савет (ИСЦ) – са својим плуралистичким чланством из друштвених и природних наука – објавио је документ за дискусију у октобру 2023. у којем је представљен прелиминарни аналитички оквир који разматра ризике, користи, претње и могућности повезане са дигиталном технологијом која се брзо креће. Иако је развијен да узме у обзир АИ, он је инхерентно агностик технологије и може се применити на низ нових и разорних технологија, као што су синтетичка биологија и квантна. Тај документ за дискусију је позвао на повратне информације од академика и креатора политике. Огромне повратне информације учиниле су спровођење такве анализе неопходним и представљале су вредан приступ за решавање нових технологија попут вештачке интелигенције.
Сврха оквира је да пружи алат за информисање свих заинтересованих страна – укључујући владе, трговинске преговараче, регулаторе, цивилно друштво и индустрију – о еволуцији ових технологија како би им помогао да осмисле како би могли да размотре импликације, позитивне или негативне, сама технологија, а тачније њена посебна примена. Овај аналитички оквир је развијен независно од интереса владе и индустрије. Она је максимално плуралистичка у својим перспективама, обухватајући све аспекте технологије и њене импликације на основу опсежних консултација и повратних информација.
Овај документ за дискусију за креаторе политике нема за циљ да забрани регулаторни режим, већ пре да предложи адаптивни аналитички оквир који се развија који би могао да подупре било коју процену и регулаторне процесе које би могле да развију заинтересоване стране, укључујући владе и мултилатерални систем.
Пошто доносиоци одлука на глобалном и националном нивоу разматрају одговарајуће поставке политике и полуге како би уравнотежили ризике и користи од нове технологије као што је АИ, аналитички оквир је замишљен као комплементарно средство како би се осигурало да се комплетан скуп потенцијалних импликација адекватно одрази.
Позадина: зашто аналитички оквир?
Брза појава технологија са сложеношћу и импликацијама вештачке интелигенције покреће многе тврдње од велике користи. Међутим, изазива и страх од значајних ризика, од индивидуалног до геостратешког нивоа.1 Већи део дискусије до данас је разматран у бинарном смислу, јер јавно изражени ставови имају тенденцију да се одвијају на крајњим крајевима спектра. Тврдње за или против вештачке интелигенције често су хиперболичне и – с обзиром на природу технологије – тешко их је проценити.
Неопходан је прагматичнији приступ где се хипербола замењује калибрисаним и детаљнијим проценама. Технологија вештачке интелигенције ће наставити да се развија, а историја показује да практично свака технологија има и корисну и штетну употребу. Стога се поставља питање: како можемо постићи корисне резултате ове технологије, а да притом смањимо ризик од штетних последица, од којих би неке могле бити егзистенцијалне?
Будућност је увек неизвесна, али постоји довољно кредибилних и стручних гласова у вези са вештачком интелигенцијом и генеративном вештачком интелигенцијом да се подстакне релативно опрезан приступ. Поред тога, системски приступ је неопходан јер је АИ класа технологија са широком употребом и применом од стране више типова корисника. То значи да се мора узети у обзир пуни контекст када се разматрају импликације употребе АИ за појединце, друштвени живот, грађански живот, друштвени живот иу глобалном контексту.
За разлику од већине других технологија, за дигиталне и сродне технологије, време између развоја, издавања и примене је изузетно кратко, у великој мери вођено интересима продукцијских компанија или агенција. По својој природи – и с обзиром да је заснована на дигиталној кичми – АИ ће имати апликације које се брзо шире, као што се већ видело развојем великих језичких модела. Као резултат тога, нека својства могу постати очигледна тек након објављивања, што значи да постоји ризик од непредвиђених последица, како злонамерних тако и добронамерних.
Важне димензије друштвених вредности, посебно у различитим регионима и културама, ће утицати на то како ће било која употреба бити перципирана и прихваћена. Штавише, геостратешки интереси већ доминирају дискусијом, при чему се суверени и мултилатерални интереси непрекидно укрштају и на тај начин покрећу конкуренцију и поделе.
До данас, велики део регулације виртуелне технологије је углавном посматран кроз сочиво „принципа“ и добровољног поштовања, иако са Законом о вештачкој интелигенцији ЕУ2 и слично видимо помак ка спроводљивијим, али донекле уским прописима. Успостављање ефективног глобалног или националног управљања технологијом и/или регулаторног система остаје изазов и не постоји очигледно решење. Дуж ланца биће потребно више слојева доношења одлука заснованих на ризику, од проналазача до произвођача, до корисника, владе и мултилатералног система.
Иако су Унеско, ОЕЦД, Европска комисија и УН, између осталих, прогласили принципе на високом нивоу, а различите дискусије на високом нивоу се настављају у вези са питањима потенцијалног управљања, регулативе, етике и безбедности, постоји велики јаз између таквих принципе и управљачки или регулаторни оквир. Ово треба да се реши.
Као почетну тачку, ИСЦ разматра развој таксономије разматрања на које би се сваки програмер, регулатор, саветник за политику, потрошач или доносилац одлука могао позвати. С обзиром на широке импликације ових технологија, таква таксономија мора узети у обзир свеукупност импликација, а не уско фокусирано уоквиривање. Глобална фрагментација се повећава због утицаја геостратешких интереса на доношење одлука, а с обзиром на хитност ове технологије, неопходно је да независни и неутрални гласови упорно заговарају јединствен и инклузиван приступ.
1) Хиндустан Тимес. 2023. Г20 мора да успостави међународни панел за технолошке промене.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЕУ о вештачкој интелигенцији. 2023. хттпс://артифициалинтеллигенцеацт.еу
Развој аналитичког оквира
ИСЦ је примарна глобална невладина организација која интегрише природне и друштвене науке. Његов глобални и дисциплински домет значи да је у доброј позицији да генерише независне и глобално релевантне савете за информисање о сложеним изборима који су пред нама, посебно зато што тренутни гласови у овој арени углавном долазе из индустрије или из политичких и политичких заједница великих технолошких сила.
Након периода опсежне дискусије, која је укључивала разматрање невладиног процеса процене, ИСЦ је закључио да би његов најкориснији допринос био стварање адаптивног аналитичког оквира који се може користити као основа за дискурс и доношење одлука од стране свих заинтересоване стране, укључујући и током свих формалних процеса процене који се појаве.
Прелиминарни аналитички оквир, који је објављен за дискусију и повратне информације у октобру 2023. године, имао је облик свеобухватне контролне листе дизајниране за употребу и од стране владиних и невладиних институција. Оквир је идентификовао и истражио потенцијал технологије као што је вештачка интелигенција и њени деривати кроз широку сочиву која обухвата људско и друштвено благостање, као и спољне факторе као што су економија, политика, животна средина и безбедност. Неки аспекти контролне листе могу бити релевантнији од других, у зависности од контекста, али изгледа да су боље одлуке вероватније ако се узму у обзир сви домени, чак и ако се неки брзо могу идентификовати као ирелевантни у одређеним случајевима. Ово је инхерентна вредност приступа контролне листе.
Прелиминарни оквир је изведен из претходног рада и размишљања, укључујући извештај Међународне мреже за владине научне савете (ИНГСА) о дигиталном благостању3 и Оквир ОЕЦД-а за класификацију система вештачке интелигенције,4 како би се представиле све потенцијалне могућности, ризици и утицаји оф АИ. Ови претходни производи су били ограниченији у својој намери с обзиром на време и контекст; постоји потреба за свеобухватним оквиром који представља читав низ питања како краткорочно тако и дугорочно.
Од објављивања, документ за дискусију је добио значајну подршку многих стручњака и креатора политике. Многи су посебно подржали препоруку за развој адаптивног оквира који омогућава намјерно и проактивно разматрање ризика и импликација технологије, и притом се увијек узима у обзир свеукупност димензија од појединца до друштва и система.
Једно од кључних запажања добијених кроз повратне информације било је признање да су неке од импликација које се разматрају у оквиру саме по себи вишеструке и да се протежу на више категорија. На пример, дезинформације би се могле разматрати и из индивидуалног и из геостратешког сочива; тако би последице биле широке.
Такође је предложена опција укључивања студија случаја или примера за тестирање оквира. Ово би се могло користити за израду смерница које ће показати како се може користити у пракси у различитим контекстима. Међутим, ово би био значајан подухват и могао би ограничити начин на који различите групе виде употребу овог оквира. То најбоље раде креатори политике који раде са стручњацима у одређеним јурисдикцијама или контекстима.
Од октобра 2023. године, било је неколико значајних националних и мултилатералних иницијатива са даљим разматрањем етике и безбедности АИ. Импликације вештачке интелигенције на интегритет неких наших критичних система, укључујући финансијске, владине, правне и образовне, као и различите системе знања (укључујући научно и домаће знање), изазивају све већу забринутост. Ревидирани оквир даље одражава ове аспекте.
Повратне информације добијене до данас одражавају се у ревидираној верзији аналитичког оквира, који је сада објављен као водич за креаторе политике.
Док је оквир представљен у контексту вештачке интелигенције и сродних технологија, он је одмах преносив на разматрања других технологија које се брзо појављују као што су квантна и синтетичка биологија.
3) Глуцкман, П. и Аллен, К. 2018. Разумевање благостања у контексту брзих дигиталних и повезаних трансформација. ИНГСА.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОЕЦД. 2022. Оквир ОЕЦД-а за класификацију система вештачке интелигенције. ОЕЦД документи о дигиталној економији, бр. 323, бр. Париз, ОЕЦД Публисхинг.
https://oecd.ai/en/classificatio
Оквир
Следећа табела представља димензије претпостављеног аналитичког оквира. Примери су дати да илуструју зашто сваки домен може бити важан; у контексту, оквир би захтевао контекстуално релевантно проширење. Такође је важно направити разлику између генеричких проблема који се јављају током развоја платформе и оних који се могу појавити током специфичних апликација. Ниједно једно разматрање укључено овде не треба да се третира као приоритет и, као такво, све треба испитати.
Питања су широко груписана у следеће категорије као што је наведено у наставку:
Табела даје детаље о димензијама које би можда требало узети у обзир приликом процене нове технологије.
? ИНГСА. 2018. Разумевање благостања у контексту брзих дигиталних и повезаних трансформација.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? Нови дескриптори (добијени кроз опсежне консултације и повратне информације и преглед литературе)
? Оквир ОЕЦД-а за класификацију система вештачке интелигенције: алат за ефикасне политике вештачке интелигенције.
https://oecd.ai/en/classification
| kriterijumi | Примери како се то може одразити у анализи |
| ?Корисничка АИ компетенција | Колико су компетентни и свесни карактеристика система вероватни корисници који ће комуницирати са системом? Како ће им бити пружене релевантне корисничке информације и упозорења? |
| ? Заинтересована страна | Ко су примарни актери на које ће систем утицати (појединци, заједнице, угрожени, секторски радници, деца, креатори политике, професионалци итд.)? |
| ? Опционалност | Да ли се корисницима пружа могућност да одустану од система или им се даје могућност да изазову или исправе резултате? |
| ?Ризици по људска права и демократске вредности | Да ли систем суштински утиче на људска права, укључујући, али не ограничавајући се на приватност, слободу изражавања, правичност, недискриминаторност итд.? |
| ?Потенцијални ефекти на добробит људи | Да ли се области утицаја система односе на добробит појединца (квалитет посла, образовање, друштвене интеракције, ментално здравље, идентитет, окружење итд.)? |
| ? Потенцијал за расељавање људске радне снаге | Да ли постоји потенцијал да систем аутоматизује задатке или функције које су извршавали људи? Ако јесте, које су последице низводно? |
| ? Потенцијал за манипулацију идентитетом, вредностима или знањем | Да ли је систем дизајниран или потенцијално способан да манипулише идентитетом корисника или постављене вредности или ширење дезинформација? |
| ? Могућности за самоизражавање и самоактуализацију | Постоји ли потенцијал за измишљотине и сумње у себе? Постоји ли потенцијал за лажне или непроверљиве тврдње о стручности? |
| ? Мере самопоштовања | Постоји ли притисак да се прикаже идеализовано ја? Може ли аутоматизација заменити смисао личног испуњења? Постоји ли притисак да се такмичи са системом у радно место? Да ли је репутацију појединца теже заштитити од дезинформација? |
| ? Приватност | Да ли постоје раширене одговорности за очување приватности и да ли их има да ли се праве претпоставке о томе како се користе лични подаци? |
| ? Аутономија | Да ли би систем вештачке интелигенције могао да утиче на људску аутономију генеришући претерано ослањање на крајњи корисници? |
| ? Људски развој | Да ли постоји утицај на стицање кључних вештина за људски развој, као нпр извршне функције или интерперсоналне вештине, или промене у времену пажње које утичу учење, развој личности, забринутост за ментално здравље итд.? |
| ? Лична здравствена њега | Да ли постоје тврдње о самодијагнози или персонализованим решењима здравствене заштите? Ако је тако, да ли су валидирани у складу са регулаторним стандардима? |
| ? Ментално здравље | Да ли постоји ризик од повећане анксиозности, усамљености или других проблема са менталним здрављем, или може ли технологија ублажити такве утицаје? |
| ? Људска еволуција | Да ли би велики језички модели и вештачка општа интелигенција могли да промене ток људске еволуције? |
| ? Интеракција човек-машина | Да ли употреба може довести до губитка вештина и зависности током времена за појединце? Аре да ли има утицаја на људску интеракцију? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Друштвене вредности | Да ли систем суштински мења природу друштва, омогућава нормализацију идеја које су се раније сматрале антисоцијалним, или нарушава друштвене вредности културе у којој се примењује? |
| ? Друштвене интеракције | Да ли постоји утицај на смислен људски контакт, укључујући емоционалне односе? |
| ? Здравље становништва | Да ли постоји потенцијал да систем унапреди или поткопа здравствене намере становништва? |
| ? Културни израз | Да ли је повећање културног присвајања или дискриминације вјероватно или теже рјешавати? Да ли ослањање на систем доношења одлука искључује или маргинализује културно релевантне друштвене везе? |
| ? Народно образовање | Да ли постоји утицај на улоге наставника или образовне институције? Да ли систем наглашава или смањује дигитални јаз и неједнакост међу студентима? Да ли је суштинска вредност знања или критичког разумевања напредна или поткопана? |
| ? Искривљене реалности | Да ли су методе које се користе да се утврди шта је истина и даље применљиве? Да ли је перцепција стварности угрожена? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Индустријски сектор | У ком индустријском сектору је систем распоређен (финансије, пољопривреда, здравство, образовање, одбрана итд.)? |
| ? Пословни модел | У којој пословној функцији се систем користи и у ком својству? Где се систем користи (приватни, јавни, непрофитни)? |
| ? Утицаји на критичне активности | Да ли би поремећај функције или активности система утицао на основне услуге или критичну инфраструктуру? |
| ?Ширина примене | Како је систем распоређен (уска употреба унутар јединице у односу на широко распрострањена на националном/међународном нивоу)? |
| ? Техничка зрелост | Колико је систем технички зрео? |
| ? Интероперабилност | Да ли ће вероватно постојати силоси, на националном или глобалном нивоу, који коче слободну трговину и утичу на сарадњу са партнерима? |
| ? Технолошки суверенитет | Да ли жеља за технолошким суверенитетом покреће понашање, укључујући контролу над целим ланцем снабдевања вештачком интелигенцијом? |
| ? Прерасподела дохотка и националне фискалне полуге | Да ли би кључне улоге суверене државе могле бити угрожене (нпр. резервне банке)? Да ли ће способност државе да испуни очекивања и импликације грађана (друштвене, економске, политичке итд.) бити унапређена или смањена? |
| ? Дигитални јаз (АИ дивиде) | Да ли се постојеће дигиталне неједнакости погоршавају или стварају нове? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Управљање и јавна служба | Да ли се на механизме управљања и глобални систем управљања може утицати позитивно или негативно? |
| ? Новински медији | Да ли је вјероватно да ће јавни дискурс постати поларизован и укоријењен на нивоу становништва? Да ли ће бити утицаја на нивое поверења у Четврти сталеж? Да ли ће се даље утицати на конвенционалну новинарску етику и стандарде интегритета? |
| ? Владавина права | Да ли ће бити утицаја на способност да се идентификују појединци или организације које треба сматрати одговорним (нпр. коју врсту одговорности доделити алгоритму за негативне исходе)? Да ли је дошло до губитка суверенитета (еколошка, фискална, социјална политика, етика итд.)? |
| ?Политика и друштвена кохезија | Постоји ли могућност више укоријењених политичких ставова и мање могућности за изградњу консензуса? Постоји ли могућност даљег маргинализовања група? Да ли су супротстављени стилови политике мање или више вероватни? |
| ? Социјална лиценца | Да ли постоје забринутости за приватност, питања поверења и моралне бриге које треба размотрити да би заинтересоване стране прихватиле употребу? |
| ? Домородачко знање | Да ли би знање и подаци домородачког становништва могли бити оштећени или присвојени? Да ли постоје адекватне мере за заштиту од лажног представљања, дезинформација и експлоатације? |
| ? Научни систем | Да ли је академски и истраживачки интегритет угрожен? Да ли се губи поверење у науку? Да ли постоје могућности злоупотребе, прекомерне употребе или злоупотребе? Шта је последица бављења науком? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Прецизан надзор | Да ли су системи обучени на основу индивидуалних бихевиоралних и биолошких података и да ли се могу користити за експлоатацију појединаца или група? |
| ? Дигитално такмичење | Да ли би државни или недржавни актери (нпр. велике технолошке компаније) могли да искористе системе и податке да разумеју и контролишу становништво и екосистеме других земаља, или да поткопају јурисдикциону контролу? |
| ? Геополитичко такмичење | Да ли би систем могао да изазове такмичење између нација око искориштавања појединачних и групних података за економске, медицинске и безбедносне интересе? |
| ? Промена глобалних сила | Да ли је угрожен статус националних држава као примарних светских геополитичких актера? Да ли технолошке компаније имају моћ која је некада била резервисана за националне државе и да ли су постале независни, суверени актери (настајуће технополарни светски поредак)? |
| ? Дезинформације | Да ли би систем олакшао производњу и ширење дезинформација од стране државних и недржавних актера са утицајем на друштвену кохезију, поверење и демократију? |
| ? Апликације двоструке употребе | Да ли постоји могућност за војну примену и за цивилну употребу? |
| ? Фрагментација глобалног поретка | Да ли би се могли развити силоси или групе прописа и усклађености који ометају сарадњу, доводе до недоследности у примени и стварају простор за конфликт? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Потрошња енергије и ресурса (угљенични отисак) | Да ли систем и захтеви повећавају потрошњу енергије и ресурса преко и изнад повећања ефикасности добијеног применом? |
| ?Извор енергије | Одакле се добија енергија за систем (обновљиви у односу на фосилна горива итд.)? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Правац и прикупљање | Да ли податке и унос прикупљају људи, аутоматизовани сензори или обоје? |
| ? Порекло података | Да ли су подаци и инпути од стручњака обезбеђени, посматрани, синтетички или изведени? Да ли постоје заштите воденог жига за потврду порекла? |
| ? Динамичка природа података | Да ли се подаци динамички, статични, динамички ажурирају с времена на време или у реалном времену? |
| ? права | Да ли су подаци власнички, јавни или лични (у вези са појединцима који се могу идентификовати)? |
| ? Идентификација и лични подаци | Ако су лични, да ли су подаци анонимни или псеудонимизовани? |
| ? Структура података | Да ли су подаци структурирани, полуструктурирани, сложено структурирани или неструктурирани? |
| ? Формат података | Да ли је формат података и метаподатака стандардизован или нестандардизован? |
| ? Скала података | Која је скала скупа података? |
| ? Прикладност и квалитет података | Да ли скуп података одговара сврси? Да ли је величина узорка адекватна? Да ли је довољно репрезентативан и комплетан? Колико су бучни подаци? Да ли је склон грешкама? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Доступност информација | Да ли су доступне информације о моделу система? |
| ? Тип АИ модела | Да ли је модел симболичан (правила створена од стране људи), статистички (користи податке) или хибридан? |
| ? Права повезана са моделом | Да ли је модел отвореног кода или власнички, којим управљају сами или треће стране? |
| ? Један од више модела | Да ли се систем састоји од једног модела или више међусобно повезаних модела? |
| ? Генеративно или дискриминативно | Да ли је модел генеративан, дискриминативан или обоје? |
| ? Изградња модела | Да ли систем учи на основу правила која су написали људи, из података, кроз учење под надзором или кроз учење уз помоћ? |
| ? Еволуција модела (АИ дрифт) | Да ли се модел развија и/или стиче способности из интеракције са подацима на терену? |
| ? Федерално или централно учење | Да ли се модел обучава централно или на неколико локалних сервера или 'ивичних' уређаја? |
| ? Развој/одржавање | Да ли је модел универзалан, прилагодљив или прилагођен подацима актера АИ? |
| ? Детерминистички или пробабилистички | Да ли се модел користи на детерминистички или вероватноћасти начин? |
| ? Транспарентност модела | Да ли су информације доступне корисницима које им омогућавају да разумеју резултате модела и ограничења или користе ограничења? |
| ? Рачунско ограничење | Постоје ли рачунска ограничења за систем? Да ли је могуће предвидети скокове способности или законе скалирања? |
| kriterijumi | Примери како се то може одразити у анализи |
| ? Задатак(и) које обавља систем | Које задатке систем обавља (препознавање, откривање догађаја, предвиђање итд.)? |
| ? Комбиновање задатака и радњи | Да ли систем комбинује неколико задатака и радњи (системи за генерисање садржаја, аутономни системи, системи управљања итд.)? |
| ? Ниво аутономије система | Колико су акције система аутономне и какву улогу играју људи? |
| ? Степен људске укључености | Да ли постоји неко људско учешће да би се надгледала укупна активност АИ система и способност одлучивања када и како користити систем АИ у било којој ситуацији? |
| ? Основна апликација | Да ли систем припада основној области примене као што су технологије људског језика, компјутерски вид, аутоматизација и/или оптимизација или роботика? |
| ? Евалуација | Да ли су доступни стандарди или методе за процену резултата система? |
Како би се овај оквир могао користити?
Овај оквир се може користити на много начина, укључујући:
Пут напред
Укратко, аналитички оквир је обезбеђен као основа комплета алата који би заинтересоване стране могле да користе да свеобухватно сагледају било који значајан развој платформи или коришћења на доследан и систематичан начин. Димензије представљене у овом оквиру су релевантне од процене технологије до јавне политике, од људског развоја до социологије, и студија будућности и технологије. Иако је развијен за АИ, овај аналитички оквир има много ширу примену на било коју другу технологију у настајању.
6 Саветодавни одбор УН АИ. 2023. Привремени извештај: Управљање вештачком интелигенцијом за човечанство. хттпс://ввв.ун.орг/ситес/ун2.ун.орг/филес/аи_адвисори_боди_интерим_репорт.пд
Признања
Много људи је консултовано и пружило је повратне информације током развоја како почетног документа за дискусију, тако и повратних информација након његовог објављивања. Оба документа су састављена од стране Sir Peter Gluckman, председник, ISC и Хема Сридхар, бивша главна саветница за науку, Министарство одбране, Нови Зеланд, а сада виша истраживачица Fellow, Универзитет у Окланду, Нови Зеланд.
Конкретно, ИСЦ Лорд Мартин Реес, бивши председник Краљевског друштва и суоснивач Центра за проучавање егзистенцијалних ризика Универзитета у Кембриџу; Професор Схиваји Сондхи, професор физике, Универзитет у Оксфорду; Професор К Вијаи Рагхаван, бивши главни научни саветник у Влади Индије; Амандееп Сингх Гилл, изасланик генералног секретара УН за технологију; Сеан О хЕигеартаигх, извршни директор, Центар за проучавање егзистенцијалних ризика, Универзитет у Кембриџу; Сир Давид Спиегелхалтер, Винтон професор јавног разумевања ризика на Универзитету
оф Цамбридге; Аманда-Јуне Бравнер, виши саветник за политику и Иан Виггинс, директор за међународне послове, Краљевско друштво, Уједињено Краљевство; Др Јероме Дуберри, генерални директор и др Марие-Лауре Саллес, директор, Женевски постдипломски институт; Цхор Пхарн Лее, Центар за стратешку будућност, Канцеларија премијера, Сингапур; Баренд Монс и др Симон Ходсон, Комитет за податке (ЦоДАТА); Професор Иуко Хараиама, бивши извршни директор, РИКЕН; Професор
Реми Квирион, председник, ИНГСА; Др Цлаире Цраиг, Универзитет у Оксфорду и бивши шеф предвиђања, Владина канцеларија за науку; Проф. Јосхуа Бенгио, Научни саветодавни одбор генералног секретара УН и на Универзитету у Монтреалу; и многи други који су дали повратне информације ИСЦ-у о почетном документу за дискусију.
Припрема националних истраживачких екосистема за АИ: стратегије и напредак у 2024
Овај радни документ ИСЦ-овог истраживачког центра, Центра за научну будућност, пружа основне информације и приступ ресурсима из земаља из свих делова света, у различитим фазама интеграције АИ у њихове истраживачке екосистеме.
Изградња научних система спремних за будућност на глобалном Југу
Нове технологије мењају начин на који се наука спроводи и нуде значајан потенцијал за јачање научних система на глобалном Југу – ако је њихово усвајање вођено инклузивним, добро подржаним и контекстуално осетљивим приступима. Како осигурати да ове технологије доприносе праведнијим и отпорнијим научним системима, уместо да појачавају постојеће неједнакости, био је централни фокус овог недавног стратешког повлачења.