Бројни академици и стручњаци за политику предложили су да Међународни научни савет – са својим плуралистичким чланством из друштвених и природних наука – успостави процес за израду и одржавање оквира/контролне листе ризика, користи, претњи и могућности повезане са дигиталним технологијама које се брзо крећу, укључујући – али не ограничавајући се на – вештачку интелигенцију. Сврха контролне листе би била да информише све заинтересоване стране – укључујући владе, трговинске преговараче, регулаторе, цивилно друштво и индустрију – о потенцијалним будућим сценаријима, и уоквири начин на који би могли да размотре могућности, користи, ризике и друга питања.
ИСЦ са задовољством представља овај документ за дискусију о процени дигиталне и сродне технологије која се брзо развија. Вештачка интелигенција, синтетичка биологија и квантне технологије су врхунски примери иновације, засноване на науци, које се појављују невиђеним темпом. Може бити изазовно систематски предвидети не само њихове примене, већ и њихове импликације.
Процена друштвених аспеката генеративне вештачке интелигенције, као што су модели великих језика, који предвидљиво представљају највећи део овог документа за дискусију, је неопходан мост унутар тренутног дискурса – понекад вођеног паником, понекад недовољно дубоко у размишљању – и неопходним курсевима акције које можемо предузети. ИСЦ је убеђен да је аналитички оквир између друштвеног прихватања таквих нових технологија и њихове могуће регулације неопходан да би се олакшале дискусије са више заинтересованих страна које су потребне за доношење информисаних и одговорних одлука о томе како да се оптимизују друштвене користи ове технологије која се брзо појављује.
ИСЦ је отворен за реакције наше заједнице кроз овај документ за дискусију како би проценио како најбоље наставити да буде део и допринос дебати око технологије.
Салваторе Арицо, извршни директор
Документ за дискусију ИСЦ-а
Оквир за процену дигиталних и сродних технологија које се брзо развијају: вештачка интелигенција, велики језички модели и даље
Овај документ за дискусију даје нацрт почетног оквира за информисање вишеструких глобалних и националних дискусија које се воде у вези са АИ.
Преузмите извештајНев! Прочитајте верзију за 2024. за креаторе политике са оквиром за преузимање за вашу организацију.
Водич за креаторе политике: Процена технологија које се брзо развијају, укључујући вештачку интелигенцију, велике језичке моделе и даље
Овај документ за дискусију даје нацрт почетног оквира за информисање вишеструких глобалних и националних дискусија које се воде у вези са АИ.
Садржај
Увод
Технологије које се брзо појављују представљају изазовна питања када је у питању њихово управљање и потенцијална регулација. Политика и јавне дебате о вештачкој интелигенцији (АИ) и њеној употреби довеле су ова питања у акутан фокус. Док су Унеско, ОЕЦД и други прогласили широке принципе за вештачку интелигенцију, и док су у почетку расправе о глобалној или јурисдикционој регулацији технологије, постоји онтолошки јаз између развоја принципа на високом нивоу и њиховог укључивања у регулативу, политику, приступе управљања и управљања. Ту би посебну улогу могла имати невладина научна заједница.
Један број академика и стручњака за политику је предложио да Међународни научни савет (ИСЦ) – са својим плуралистичким чланством из друштвених и природних наука – успостави процес за израду и одржавање оквира/контролне листе ризика, користи, претње и могућности повезане са дигиталним технологијама које се брзо крећу, укључујући – али не ограничавајући се на – вештачку интелигенцију. Сврха контролне листе би била да информише све заинтересоване стране – укључујући владе, трговинске преговараче, регулаторе, цивилно друштво и индустрију – о потенцијалним будућим сценаријима, и уоквири начин на који би могли да размотре могућности, користи, ризике и друга питања.
Резултати не би деловали као тело за процену, већ као прилагодљиви аналитички оквир који се развија који би могао да подупре све процене и регулаторне процесе које би могле да развију заинтересоване стране, укључујући владе и мултилатерални систем. Било који аналитички оквир би идеално требало да буде развијен независно од тврдњи владе и индустрије, с обзиром на њихове разумљиве интересе. Такође мора бити максимално плуралистички у својим перспективама, обухватајући тако све аспекте технологије и њене импликације.
Овај документ за дискусију даје нацрт почетног оквира за информисање вишеструких глобалних и националних дискусија које се воде у вези са АИ.
Позадина: Зашто аналитички оквир?
Брза појава технологије са сложеношћу и импликацијама вештачке интелигенције покреће многе тврдње о великим предностима. Међутим, то изазива и страх од значајних ризика, од индивидуалног до геостратешког нивоа. Велики део дискусије се одвија на крајњим крајевима спектра гледишта и потребан је прагматичнији приступ. Технологија вештачке интелигенције ће наставити да се развија и историја показује да практично свака технологија има и корисну и штетну употребу. Стога се поставља питање: како можемо постићи корисне резултате од ове технологије, а да истовремено смањимо ризик од штетних последица, од којих би неке могле бити егзистенцијалне?
Будућност је увек неизвесна, али постоји довољно кредибилних и стручних гласова у вези са вештачком интелигенцијом и генеративном вештачком интелигенцијом да се подстакне релативно опрезан приступ. Поред тога, потребан је системски приступ, јер је АИ класа технологија са широком употребом и применом од стране више типова корисника. То значи да се пуни контекст мора узети у обзир када се разматрају импликације АИ на појединце, друштвени живот, грађански живот, друштвени живот иу глобалном контексту.
За разлику од већине претходних технологија, дигиталне и сродне технологије имају веома кратак временски период од развоја до објављивања, углавном вођен интересима продукцијских компанија или агенција. АИ се брзо шири; нека својства могу постати очигледна тек након објављивања, а технологија би могла имати и злонамерне и добронамерне примене. Важне димензије вредности ће утицати на то како се перципира било која употреба. Штавише, могу постојати геостратешки интереси у игри.
До данас се регулација виртуелне технологије углавном посматрала кроз сочиво „принципа“ и добровољног поштовања. У скорије време, међутим, дискусија се окренула питањима националног и мултилатералног управљања, укључујући употребу регулаторних и других инструмената политике. Тврдње за или против вештачке интелигенције често су хиперболичне и – с обзиром на природу технологије – тешко их је проценити. Успостављање ефикасног глобалног или националног система регулације технологије биће изазовно, а биће потребно више слојева доношења одлука заснованих на ризику дуж ланца, од проналазача до произвођача, преко корисника, владе и мултилатералног система.
Док су УНЕСКО, ОЕЦД и Европска комисија прогласили принципе на високом нивоу, између осталих, а различите дискусије на високом нивоу су у току у вези са питањима потенцијалне регулативе, постоји велики онтолошки јаз између таквих принципа и оквира управљања или регулаторног оквира. Која је таксономија разматрања која би регулатор могао да размотри? Уско фокусирано кадрирање не би било мудро, с обзиром на широке импликације ових технологија. Овај потенцијал је био предмет многих коментара, како позитивних тако и негативних.
Развој аналитичког оквира
ИСЦ је примарна глобална невладина организација која интегрише природне и друштвене науке. Његов глобални и дисциплински домет значи да је у доброј позицији да генерише независне и глобално релевантне савете за информисање о сложеним изборима који су пред нама, посебно пошто тренутни гласови у овој арени углавном долазе из индустрије или великих технолошких сила. Након опсежне дискусије током последњих месеци, укључујући разматрање невладиног процеса процене, ИСЦ је закључио да би његов најкориснији допринос био стварање и одржавање адаптивног аналитичког оквира који се може користити као основа за дискурс и доношење одлука од стране све заинтересоване стране, укључујући и током било ког формалног процеса процене који се појави.
Овај оквир би имао облик свеобухватне контролне листе коју би могле користити и владине и невладине институције. Оквир идентификује и истражује потенцијал технологије као што је вештачка интелигенција и њени деривати кроз широку сочиву која обухвата људско и друштвено благостање, као и спољне факторе, као што су економија, политика, животна средина и безбедност. Неки аспекти контролне листе могу бити релевантнији од других, у зависности од контекста, али боље одлуке су вероватније ако се узму у обзир сви домени. Ово је инхерентна вредност приступа контролне листе.
Предложени оквир је изведен из претходног рада и размишљања, укључујући извештај о дигиталном благостању Међународне мреже за владине научне савете (ИНГСА)1 и Оквир за класификацију АИ ОЕЦД-а2 представити све потенцијалне могућности, ризике и утицаје вештачке интелигенције. Ови претходни производи су били ограниченији у својој намери с обзиром на њихово време и контекст, постоји потреба за свеобухватним оквиром који представља читав низ питања, како краткорочно тако и дугорочно.
Иако је развијен за разматрање АИ, овај аналитички оквир би се могао применити на било коју технологију која се брзо појављује. Питања су углавном груписана у следеће категорије за даље испитивање:
Списак разматрања за сваку од горе наведених категорија је укључен заједно са њиховим одговарајућим могућностима и последицама. Неки су релевантни за специфичне случајеве или апликације АИ, док су други генерички и агностички за платформу или употребу. Ниједно једно разматрање укључено овде не треба да се третира као приоритет и, као такво, све треба испитати.
Како би се овај оквир могао користити?
Овај оквир би се могао користити на, али не ограничавајући се на, следеће начине:
Следећа табела је рано обликовање димензија аналитичког оквира. У зависности од технологије и њене употребе, неке компоненте ће бити релевантније од других. Примери су дати да илуструју зашто сваки домен може бити важан; у контексту, оквир би захтевао контекстуално релевантно проширење. Такође је важно направити разлику између развоја платформе и генеричких проблема који се могу појавити током специфичних апликација.
Димензије које треба узети у обзир приликом процене нове технологије
| Почетни нацрт димензија које би се могле узети у обзир приликом процене нове технологије | ||
| Димензије удара | kriterijumi | Примери како се то може одразити у анализи |
| Појединац/сам | АИ компетенција корисника | Колико су компетентни и свесни карактеристика система вероватни корисници који ће комуницирати са системом? Како ће им бити пружене релевантне корисничке информације и упозорења? |
| Заинтересоване стране | Ко су примарни актери на које ће систем утицати (тј. појединци, заједнице, угрожени, секторски радници, деца, креатори политике, професионалци)? | |
| Опционалност | Да ли је корисницима омогућена опција да одустану од система; треба ли им дати прилику да изазову или исправе резултат? | |
| Ризици по људска права и демократске вредности | Да ли би систем могао да утиче (и у ком правцу) на људска права, укључујући, али не ограничавајући се на, приватност, слободу изражавања, правичност, ризик од дискриминације, итд.? | |
| Потенцијални ефекти на добробит људи | Да ли систем може утицати (и у ком правцу) на добробит појединца (тј. квалитет посла, образовање, друштвене интеракције, ментално здравље, идентитет, окружење)? | |
| Потенцијал за расељавање људске радне снаге | Да ли постоји потенцијал да систем аутоматизује задатке или функције које су извршавали људи? Ако јесте, које су последице низводно? | |
| Потенцијал за манипулацију идентитетом, вредностима или знањем | Да ли је систем дизајниран да или потенцијално може да манипулише корисничким идентитетом или постављеним вредностима, или да шири дезинформације? Да ли постоји потенцијал за лажне или непроверљиве тврдње о стручности? | |
| Мере самопоштовања | Постоји ли притисак да се прикаже идеализовано ја? Да ли аутоматизација може да замени осећај личне испуњености? Да ли постоји притисак да се такмичи са системом на радном месту? Да ли је репутација појединца теже заштитити од дезинформација? | |
| приватност | Да ли постоје распрострањене одговорности за очување приватности и да ли постоје било какве претпоставке о томе како се лични подаци користе? | |
| Аутономија | Да ли систем може да утиче на људску аутономију генеришући прекомерно ослањање крајњих корисника на технологију? | |
| Људски развој | Да ли постоји утицај на стицање кључних вештина за људски развој, као што су извршне функције, интерперсоналне вештине, промене у времену пажње које утичу на учење, развој личности, забринутост за ментално здравље, итд.? | |
| Лична здравствена њега | Да ли постоје тврдње о персонализованим решењима здравствене заштите? Ако је тако, да ли су валидирани у складу са регулаторним стандардима? | |
| Ментално здравље | Да ли постоји ризик од повећане анксиозности, усамљености или других проблема са менталним здрављем, или технологија може да ублажи такве утицаје? | |
| Људска еволуција | Да ли технологија може довести до промена у људској еволуцији? | |
| Димензије удара | kriterijumi | Opis |
| Друштво/друштвени живот | Друштвене вредности | Да ли систем суштински мења природу друштва или омогућава нормализацију идеја које су се раније сматрале антисоцијалним, или нарушава друштвене вредности културе у којој се примењује? |
| Друштвена интеракција | Да ли постоји утицај на смислен људски контакт, укључујући емоционалне односе? | |
| Правичност | Да ли ће примена/технологија вероватно смањити или повећати неједнакости (тј. економске, друштвене, образовне, географске)? | |
| Здравље становништва | Да ли постоји потенцијал да систем унапреди или поткопа здравствене намере становништва? | |
| Културни израз | Да ли је повећање културног присвајања или дискриминације вјероватно или теже рјешавати? Да ли ослањање на систем доношења одлука потенцијално искључује или маргинализује делове друштва? | |
| Јавно образовање | Да ли постоји утицај на улоге наставника или образовне институције? Да ли систем наглашава или смањује неједнакост међу студентима и дигитални јаз? Да ли је суштинска вредност знања или критичког разумевања напредна или поткопана? | |
| Искривљене реалности | Да ли су методе које користимо да бисмо открили шта је истина и даље применљиве? Да ли је перцепција стварности угрожена? | |
| Економски контекст (трговина) | Индустријски сектор | У ком индустријском сектору је систем распоређен (тј. у финансијама, пољопривреди, здравству, образовању, одбрани)? |
| Пословни модел | У којој пословној функцији се систем користи и у ком својству? Где се систем користи (приватни, јавни, непрофитни)? | |
| Утицај на критичне активности | Да ли би поремећај функције или активности система утицао на основне услуге или критичну инфраструктуру? | |
| Дах распоређивања | Како је систем распоређен (уско унутар организације насупрот широко распрострањеном на националном/међународном нивоу)? | |
| Техничка зрелост (ТРЛ) | Колико је систем технички зрео? | |
| Технолошки суверенитет | Да ли технологија покреће већу концентрацију технолошког суверенитета. | |
| Прерасподела дохотка и националне фискалне полуге | Да ли би кључне улоге суверене државе могле бити угрожене (нпр. резервне банке)? Да ли ће способност државе да испуни очекивања и импликације грађана (тј. социјалне, економске, политичке) бити побољшана или смањена? | |
| Димензије удара | kriterijumi | Opis |
| Грађански живот | Управљање и јавна служба | Да ли се на механизме управљања и глобалне системе управљања може утицати позитивно или негативно? |
| Медији | Да ли је вероватно да ће јавни дискурс постати мање или више поларизован и укорењен на нивоу становништва? Да ли ће то утицати на ниво поверења у медије? Да ли ће се даље утицати на конвенционалну новинарску етику и стандарде интегритета? | |
| Владавина права | Да ли ће бити утицаја на способност да се идентификују појединци или организације које треба сматрати одговорним (тј. коју врсту одговорности доделити алгоритму за негативне исходе)? Да ли то доводи до губитка суверенитета (тј. еколошке, фискалне, социјалне политике, етике)? | |
| Политика и друштвена кохезија | Постоји ли могућност више укоријењених политичких ставова и мање могућности за изградњу консензуса? Постоји ли могућност даљег маргинализовања група? Да ли су супротстављени стилови политике мање или више вероватни? | |
| Геостратешки/геополитички контекст | Прецизан надзор | Да ли су системи обучени на основу индивидуалних бихевиоралних и биолошких података, и ако јесу, да ли би могли да се користе за експлоатацију појединаца или група? |
| Дигитална колонизација | Да ли су државни или недржавни актери у стању да искористе системе и податке да разумеју и контролишу становништво и екосистеме других земаља, или да поткопају јурисдикциону контролу? | |
| Гео-политичко такмичење | Да ли систем утиче на конкуренцију између држава и технолошких платформи за приступ појединачним и колективним подацима у економске или стратешке сврхе? | |
| Трговина и трговински уговори | Да ли систем има импликације на међународне трговинске споразуме? | |
| Промена глобалних сила | Да ли је угрожен статус националних држава као примарних светских геополитичких актера? Да ли ће технолошке компаније имати моћ некада резервисану за националне државе и да ли постају независни суверени актери? | |
| дезинформација | Да ли је државним и недржавним актерима лакше да производе и шире дезинформације које утичу на друштвену кохезију, поверење и демократију? | |
| еколошки | Потрошња енергије и ресурса (угљенични отисак) | Да ли систем и захтеви повећавају потрошњу енергије и ресурса преко и изнад повећања ефикасности добијеног применом? |
| Димензије удара | kriterijumi | Opis |
| Подаци и унос | Откривање и прикупљање | Да ли податке и унос прикупљају људи, аутоматизовани сензори или обоје? |
| Порекло података | Што се тиче података, да ли су они дати, посматрани, синтетички или изведени? Да ли постоје заштите воденог жига за потврду порекла? | |
| Динамичка природа података | Да ли су подаци динамички, статични, ажурирани с времена на време или у реалном времену? | |
| Права | Да ли су подаци власнички, јавни или лични (тј. повезани са појединцима који се могу идентификовати)? | |
| Идентификација личних података | Ако су лични подаци, да ли су анонимни или псеудонимизовани? | |
| Структура података | Да ли су подаци структурирани, полуструктурирани, сложено структурирани или неструктурирани? | |
| Формат података | Да ли је формат података и метаподатака стандардизован или нестандардизован? | |
| Скала података | Која је скала скупа података? | |
| Прикладност и квалитет података | Да ли скуп података одговара сврси? Да ли је величина узорка адекватна? Да ли је довољно репрезентативан и комплетан? Колико су бучни подаци? Да ли је склон грешкама? | |
| модел | Доступност информација | Да ли су доступне информације о моделу система? |
| Тип АИ модела | Да ли је модел симболичан (правила створена од стране људи), статистички (користи податке) или хибридан? | |
| Права повезана са моделом | Да ли је модел отвореног кода или власнички, којим управљају сами или треће стране? | |
| Један или више модела | Да ли се систем састоји од једног модела или више међусобно повезаних модела? | |
| Генеративно или дискриминативно | Да ли је модел генеративан, дискриминативан или обоје? | |
| Грађење модела | Да ли систем учи на основу правила која су написали људи, из података, кроз учење под надзором или кроз учење уз помоћ? | |
| Еволуција модела (АИ дрифт) | Да ли се модел развија и/или стиче способности из интеракције са подацима на терену? | |
| Федерално или централно учење | Да ли се модел обучава централно или на неколико локалних сервера или „ивичних“ уређаја? | |
| Развој и одржавање | Да ли је модел универзалан, прилагодљив или прилагођен подацима актера АИ? | |
| Детерминистички или пробабилистички | Да ли се модел користи на детерминистички или вероватноћасти начин? | |
| Транспарентност модела | Да ли су информације доступне корисницима које им омогућавају да разумеју резултате модела и ограничења или користе ограничења? | |
| Рачунско ограничење | Постоје ли рачунска ограничења за систем? Можемо ли предвидети скокове способности или законе скалирања? | |
| Димензије удара | kriterijumi | Opis |
| Задатак и излаз | Задатак(и) које обавља систем | Које задатке систем обавља (тј. препознавање, откривање догађаја, предвиђање)? |
| Комбиновање задатака и радњи | Да ли систем комбинује неколико задатака и радњи (тј. системи за генерисање садржаја, аутономни системи, контролни системи)? | |
| Ниво аутономије система | Колико су акције система аутономне и какву улогу играју људи? | |
| Степен људске укључености | Да ли постоји неко људско учешће да би се надгледала укупна активност АИ система и способност одлучивања када и како користити систем у било којој ситуацији? | |
| Основна апликација | Да ли систем припада основној области примене као што су технологије људског језика, компјутерски вид, аутоматизација и/или оптимизација или роботика? | |
| Процена | Да ли су доступни стандарди или методе за процену излаза система или за решавање непредвиђених насталих својстава? | |
Кључ извори дескриптора
Обичан текст:
Глуцкман, П. и Аллен, К. 2018. Разумевање благостања у контексту брзих дигиталних и повезаних трансформација. ИНГСА. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Задебљани текст:
ОЕЦД. 2022. Оквир ОЕЦД-а за класификацију система вештачке интелигенције. ОЕЦД Дигитал Ецономи Паперс, Но. 323, ОЕЦД Публисхинг, Париз. https://oecd.ai/en/classification
Курзив текст:
Нови дескриптори (из више извора)
Пут напред
У зависности од одговора на овај документ за дискусију, ИСЦ би формирао стручну радну групу која би даље развијала или изменила горњи аналитички оквир помоћу којег би заинтересоване стране могле свеобухватно да сагледају било који значајан развој било платформи или димензија коришћења. Радна група би била дисциплинарно, географски и демографски разнолика, са стручношћу која се протеже од процене технологије до јавних политика, од људског развоја до социологије и студија будућности и технологије.
Да бисте се укључили у овај документ за дискусију, посетите савет.сциенце/публицатионс/фрамеворк-дигитал-тецхнологиес
Признања
Много људи је консултовано у изради овог документа, који је саставио Sir Peter Gluckman, председник, ISC и Хема Сридхар, бивша главна научница, Министарство одбране, а сада виши истраживач, Универзитет у Окланду, Нови Зеланд.
Посебно захваљујемо Лорду Мартину Рису, бившем председнику Краљевског друштва и суоснивачу Центра за проучавање егзистенцијалних ризика Универзитета у Кембриџу; Професор Схиваји Сондхи, професор физике, Универзитет у Оксфорду; Професор К Вијаи Рагхаван, бивши главни научни саветник Владе Индије; Амандееп Сингх Гилл, изасланик генералног секретара УН за технологију; Др Сеан Ох Еигеартаигх, извршни директор, Центар за проучавање егзистенцијалних ризика, Универзитет у Кембриџу; Аманда-Јуне Бравнер, виши саветник за политику и Иан Виггинс, директор за међународне послове, Краљевско друштво УК; Др Јероме Дуберри, Др Марие-Лауре Саллес, директор, Женевски постдипломски институт; г-дин Цхор Пхарн Лее, Центар за стратешку будућност, Канцеларија премијера, Сингапур; Баренд Монс и др Симон Ходсон, Комитет за податке (ЦоДАТА); Проф. Иуко Хараиама, Јапан; Професор Реми Куирион, председник, ИНГСА; Др Цлаире Цраиг, Универзитет у Оксфорду и бивши шеф предвиђања, Владина канцеларија за науку; и професор Јосхуа Бенгио, Научни саветодавни одбор генералног секретара УН и на Универзитету у Монтреалу. Приступ контролне листе је генерално прихваћен и наглашена је благовременост било које акције ИСЦ-а.
Слика: адамицхи на иСтоцк-у