Посібник ISC пропонує всебічну структуру, розроблену для подолання розриву між принципами високого рівня та практичною, дієвою політикою. Це відповідає нагальній потребі загального розуміння як можливостей, так і ризиків, які представляють нові технології. Це важливий документ для тих, хто працює над політичним зв’язком у нашу цифрову епоху, що швидко змінюється.
Структура досліджує потенціал штучного інтелекту та його похідних через всеосяжну лінзу, охоплюючи добробут людей і суспільства разом із зовнішніми факторами, такими як економіка, політика, навколишнє середовище та безпека. Деякі аспекти контрольного списку можуть бути більш релевантними, ніж інші, залежно від контексту, але кращі рішення здаються більш вірогідними, якщо враховувати всі домени, навіть якщо деякі з них можна швидко визначити як нерелевантні в окремих випадках. Це невід’ємна цінність підходу контрольного списку.
«В епоху, позначену стрімкими технологічними інноваціями та складними глобальними викликами, структура ISC для комплексного та багатовимірного аналізу потенційних впливів дає лідерам можливість приймати обґрунтовані та відповідальні рішення. Це гарантує, що, коли ми просуваємося технологічно, ми робимо це з ретельним розглядом етичних, соціальних та економічних наслідків».
Пітер Глюкман, президент ISC
Незважаючи на те, що принципи високого рівня були проголошені ЮНЕСКО, ОЕСР, Європейською комісією та ООН, серед інших, і тривають різноманітні дискусії щодо питань потенційного управління, регулювання, етики та безпеки, існує великий розрив між такими принципами та управління або нормативної бази. ISC вирішує цю потребу через свій новий посібник для політиків.
Це керівництво для політиків не має на меті заборонити регуляторний режим, а скоріше запропонувати адаптивну аналітичну структуру, що розвивається, яка може лежати в основі будь-яких процесів оцінки та регулювання, які можуть бути розроблені зацікавленими сторонами, включаючи уряди та багатосторонню систему.
«Фреймворк є критично важливим кроком у глобальній дискусії про ШІ, оскільки він забезпечує основу, на якій ми можемо досягти консенсусу щодо наслідків технології як зараз, так і в майбутньому».
Хема Срідхар, колишній головний науковий радник Міністерства оборони Нової Зеландії, а нині старший науковий співробітник Університету Окленда, Нова Зеландія.
З жовтня 2023 року було запроваджено кілька важливих національних і багатосторонніх ініціатив із подальшим розглядом етики та безпеки ШІ. Наслідки штучного інтелекту для цілісності деяких наших критично важливих систем, включаючи фінансову, державну, юридичну та освітню, а також різні системи знань (включаючи наукові та місцеві знання), викликають все більше занепокоєння. Структура додатково відображає ці аспекти.
Відгуки, отримані від членів ISC та міжнародної спільноти, що формує політику, відображені в переглянутій версії аналітичної основи, яка зараз випущена як посібник для політиків.
Посібник для політиків: Оцінка технологій, що швидко розвиваються, включаючи ШІ, великі мовні моделі тощо
У цьому дискусійному документі представлено схему початкової основи для численних глобальних і національних дискусій, пов’язаних із ШІ.
Завантажте структуру для використання у вашій організації
Тут ми надаємо інструмент рамки як аркуш Excel, який можна редагувати, для використання у вашій організації. Якщо ви віддаєте перевагу формату з відкритим кодом, будь ласка, зв’яжіться з нами [захищено електронною поштою].
Вступ
Технології, що швидко розвиваються, створюють складні проблеми, коли справа стосується їх використання, управління та потенційного регулювання. Поточна політика та публічні дебати щодо штучного інтелекту (ШІ) та його використання привернули ці проблеми до уваги. Широкі принципи ШІ були оголошені ЮНЕСКО, ОЕСР, ООН та іншими, включаючи Декларацію Блетчлі Сполученого Королівства, і з’являються спроби юрисдикції регулювати аспекти технології через, наприклад, ШІ Європейського Союзу (ЄС). Закон або нещодавній виконавчий наказ AI Сполучених Штатів.
У той час як використання штучного інтелекту довго обговорюється на цих та інших форумах, через геополітичні розбіжності та в країнах з усіма рівнями доходу, залишається онтологічний розрив між розробкою принципів високого рівня та їх втіленням на практиці через регулятивні, політичні та керівні органи. або підходи управління. Шлях від принципу до практики погано визначений, але, враховуючи характер і темпи розробки та застосування штучного інтелекту, різноманітність залучених інтересів і діапазон можливих застосувань, будь-який підхід не може бути надто загальним або директивним.
З цих причин особливу роль продовжує відігравати неурядова наукова спільнота. У жовтні 2023 року Міжнародна наукова рада (ISC) із плюралістичним складом представників соціальних і природничих наук опублікувала дискусійний документ, у якому представлено попередню аналітичну структуру, у якій розглядаються ризики, переваги, загрози та можливості, пов’язані зі стрімким розвитком цифрових технологій. Незважаючи на те, що він був розроблений для врахування штучного інтелекту, він за своєю суттю не залежить від технологій і може бути застосований до ряду нових і революційних технологій, таких як синтетична біологія та квантова. Цей дискусійний документ запрошував науковців і політиків до відгуків. Завдяки величезній кількості відгуків проведення такого аналізу стало необхідним і стало цінним підходом до нових технологій, таких як ШІ.
Метою цієї структури є надання інструменту для інформування всіх зацікавлених сторін, включаючи уряди, учасників торгових переговорів, регуляторних органів, громадянське суспільство та промисловість, про еволюцію цих технологій, щоб допомогти їм визначити, як вони можуть розглядати наслідки, позитивні чи негативні, сама технологія, а точніше її конкретне застосування. Ця аналітична основа була розроблена незалежно від інтересів уряду та галузі. Він максимально плюралістичний у своїх перспективах, охоплюючи всі аспекти технології та її наслідки на основі широких консультацій і відгуків.
Цей дискусійний документ для політиків не має на меті заборонити регуляторний режим, а скоріше запропонувати адаптивну аналітичну структуру, що розвивається, яка може лежати в основі будь-яких процесів оцінки та регулювання, які можуть бути розроблені зацікавленими сторонами, включаючи уряди та багатосторонню систему.
Оскільки особи, які приймають рішення в усьому світі та на національному рівні, розглядають відповідні параметри політики та важелі, щоб збалансувати ризики та винагороди нової технології, такої як штучний інтелект, аналітична структура призначена як додатковий інструмент для забезпечення адекватного відображення повного набору потенційних наслідків.
Передумови: навіщо аналітична основа?
Швидка поява технологій зі складністю та наслідками штучного інтелекту спонукає багато заяв про велику користь. Однак це також провокує побоювання значних ризиків, від індивідуального до геостратегічного рівня.1 Значна частина дискусій на сьогоднішній день розглядалася в бінарному сенсі, оскільки публічно висловлені погляди, як правило, мають місце на крайніх кінцях спектру. Твердження на користь або проти штучного інтелекту часто є гіперболічними, і, враховуючи природу технології, їх важко оцінити.
Необхідний більш прагматичний підхід, коли гіпербола замінюється каліброваними та більш детальними оцінками. Технології штучного інтелекту продовжуватимуть розвиватися, і історія показує, що практично кожна технологія має як користь, так і шкоду. Отже, постає питання: як ми можемо досягти корисних результатів від цієї технології, одночасно зменшуючи ризики шкідливих наслідків, деякі з яких можуть мати екзистенціальний масштаб?
Майбутнє завжди невизначене, але щодо ШІ та генеративного ШІ є достатня кількість надійних експертів, які заохочують до відносно обережного підходу. Крім того, необхідний системний підхід, оскільки штучний інтелект – це клас технологій із широким використанням і застосуванням різними типами користувачів. Це означає, що під час розгляду наслідків використання будь-якого штучного інтелекту для окремих осіб, суспільного життя, громадянського життя, суспільного життя та в глобальному контексті необхідно враховувати повний контекст.
На відміну від більшості інших технологій, для цифрових і суміжних технологій проміжок часу між розробкою, випуском і застосуванням надзвичайно короткий, що значною мірою керується інтересами виробничих компаній або агентств. За своєю природою – і враховуючи, що він базується на цифровій магістралі – штучний інтелект матиме програми, які швидко поширюються, як це вже було помічено з розробкою великих мовних моделей. У результаті деякі властивості можуть стати очевидними лише після звільнення, тобто існує ризик непередбачуваних наслідків, як зловмисних, так і доброзичливих.
Важливі аспекти суспільних цінностей, особливо в різних регіонах і культурах, впливатимуть на те, як сприймається та приймається будь-яке використання. Крім того, геостратегічні інтереси вже домінують у дискусіях, де суверенні та багатосторонні інтереси постійно перетинаються, що призводить до конкуренції та розколу.
На сьогоднішній день більша частина регулювання віртуальних технологій в основному розглядалася через призму «принципів» і добровільного дотримання, незважаючи на Закон ЄС про штучний інтелект.2 і схоже, ми спостерігаємо перехід до більш ефективних, але дещо вузьких правил. Створення ефективного глобального чи національного управління технологіями та/або системи регулювання залишається складним завданням, і немає очевидного рішення. У ланцюжку знадобиться кілька рівнів прийняття рішень з урахуванням ризиків, від винахідника до виробника, до користувача, до уряду та багатосторонньої системи.
Незважаючи на те, що ЮНЕСКО, ОЕСР, Європейська комісія та ООН, серед інших, оприлюднили принципи високого рівня, і тривають різноманітні дискусії на високому рівні щодо питань потенційного управління, регулювання, етики та безпеки, існує великий розрив між такими принципи та систему управління або нормативну базу. Це потрібно вирішити.
В якості відправної точки ISC розглядає розробку таксономії міркувань, на яку міг би посилатися будь-який розробник, регулятор, політичний радник, споживач або особа, яка приймає рішення. Враховуючи широкі наслідки цих технологій, така таксономія повинна враховувати сукупність наслідків, а не вузько сфокусований фрейм. Глобальна фрагментація зростає через вплив геостратегічних інтересів на прийняття рішень, і, враховуючи актуальність цієї технології, важливо, щоб незалежні та нейтральні голоси наполегливо відстоювали єдиний та інклюзивний підхід.
1) Hindustan Times. 2023. G20 повинна створити міжнародну групу з питань технологічних змін.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЄС про штучний інтелект. 2023. https://artificialintelligenceact.eu
Розробка аналітичної основи
ISC є основною глобальною неурядовою організацією, що об’єднує природничі та соціальні науки. Його глобальний і дисциплінарний охоплення означає, що він має хороші можливості для створення незалежних і глобально актуальних порад для інформування про складні вибори, які попереду, особливо тому, що нинішні голоси на цій арені в основному походять від промисловості або від політичних і політичних спільнот великих технологічних держав.
Після періоду широкого обговорення, яке включало розгляд процесу неурядової оцінки, ISC дійшов висновку, що його найкориснішим внеском буде створення адаптивної аналітичної структури, яка може бути використана як основа для дискурсу та прийняття рішень усіма зацікавлені сторони, в тому числі під час будь-яких формальних процесів оцінки, що виникають.
Попередня аналітична основа, яку було опубліковано для обговорення та відгуків у жовтні 2023 року, набула форми загального контрольного списку, призначеного для використання як державними, так і неурядовими установами. Структура визначила та дослідила потенціал таких технологій, як штучний інтелект та його похідних, через широкий об’єктив, який охоплює добробут людини та суспільства, а також зовнішні фактори, такі як економіка, політика, навколишнє середовище та безпека. Деякі аспекти контрольного списку можуть бути більш релевантними, ніж інші, залежно від контексту, але кращі рішення здаються більш вірогідними, якщо враховувати всі домени, навіть якщо деякі з них можна швидко визначити як нерелевантні в окремих випадках. Це невід’ємна цінність підходу контрольного списку.
Попередня структура була виведена на основі попередньої роботи та мислення, включаючи звіт Міжнародної мережі урядових наукових консультацій (INGSA) про цифровий добробут3 та Рамкову систему ОЕСР для класифікації систем штучного інтелекту4, щоб представити сукупність потенційних можливостей, ризиків і наслідків. ШІ. Ці попередні продукти були більш обмеженими за своїм наміром з огляду на час і контекст; існує потреба у всеохоплюючій структурі, яка представляє повний спектр питань як у короткостроковій, так і в довгостроковій перспективі.
З моменту свого випуску дискусійний документ отримав значну підтримку багатьох експертів і політиків. Багато хто спеціально схвалив рекомендацію розробити адаптивну структуру, яка дозволяє свідомо та проактивно розглядати ризики та наслідки технології, і при цьому завжди враховує сукупність вимірів від особистості до суспільства та систем.
Одним із ключових зауважень, зроблених у відгуках, було визнання того, що деякі наслідки, які розглядаються в структурі, за своєю суттю є багатогранними та поширюються на кілька категорій. Наприклад, дезінформацію можна розглядати як з індивідуальної, так і з геостратегічної позиції; таким чином, наслідки будуть різноманітними.
Також було запропоновано можливість включити тематичні дослідження або приклади для тестування структури. Це можна використати для розробки рекомендацій, щоб продемонструвати, як це можна використовувати на практиці в різних контекстах. Однак це було б значним заходом і може обмежити те, як різні групи сприймають використання цієї основи. Найкраще це роблять політики, які працюють з експертами в конкретних юрисдикціях або контекстах.
З жовтня 2023 року було запроваджено кілька важливих національних і багатосторонніх ініціатив із подальшим розглядом етики та безпеки ШІ. Наслідки штучного інтелекту для цілісності деяких наших критично важливих систем, включаючи фінансову, державну, юридичну та освітню, а також різні системи знань (включаючи наукові та місцеві знання), викликають все більше занепокоєння. Переглянута структура додатково відображає ці аспекти.
Відгуки, отримані на сьогоднішній день, відображені в оновленій версії аналітичної основи, яка зараз випущена як посібник для політиків.
Хоча структура представлена в контексті штучного інтелекту та пов’язаних технологій, її можна негайно перенести на розгляд інших технологій, що швидко розвиваються, таких як квантова та синтетична біологія.
3) Глюкман, П. та Аллен, К. 2018. Розуміння добробуту в контексті швидкої цифрової та пов’язаної з нею трансформації. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОЕСР. 2022. Структура ОЕСР для класифікації систем ШІ. Документи ОЕСР з цифрової економіки, № 323, №. Париж, OECD Publishing.
https://oecd.ai/en/classificatio
Основи
У наступній таблиці представлено розміри передбачуваної аналітичної структури. Наведено приклади, щоб проілюструвати, чому кожен домен може мати значення; у контексті структура вимагала б контекстуально відповідного розширення. Також важливо розрізняти загальні проблеми, які виникають під час розробки платформи, і ті, які можуть виникнути під час конкретних програм. Жодне окреме міркування, включене тут, не повинно розглядатися як пріоритетне, і, таким чином, усі повинні бути розглянуті.
Проблеми загалом згруповано в такі категорії, як описано нижче.
У таблиці детально описано параметри, які, можливо, слід враховувати при оцінці нової технології.
🔴 INGSA. 2018. Розуміння добробуту в контексті швидкої цифрової та пов’язаної з нею трансформації.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Нові дескриптори (отримані в результаті широких консультацій, відгуків і огляду літератури)
🟡 Структура ОЕСР для класифікації систем штучного інтелекту: інструмент ефективної політики щодо штучного інтелекту.
https://oecd.ai/en/classification
Критерії | Приклади того, як це може бути відображено в аналізі |
🟡Компетентність AI користувачів | Наскільки компетентні та обізнані про властивості системи ймовірні користувачі, які взаємодіятимуть із системою? Як їм буде надано відповідну інформацію для користувачів і застереження? |
🟡 Зацікавлена сторона | Хто є основними зацікавленими сторонами, на яких впливатиме система (окремі особи, громади, уразливі верстви населення, працівники галузі, діти, політики, професіонали тощо)? |
🟡 На вибір | Чи надається користувачам можливість відмовитися від системи чи їм надається можливість оскаржити або виправити результат? |
🟡Ризики для прав людини та демократичних цінностей | Чи впливає система принципово на права людини, включаючи, але не обмежуючись цим, приватність, свободу вираження поглядів, справедливість, недискримінацію тощо? |
🟡Потенційний вплив на добробут людей | Чи пов’язані сфери впливу системи з добробутом окремого користувача (якість роботи, освіта, соціальні взаємодії, психічне здоров’я, особистість, навколишнє середовище тощо)? |
🟡 Потенціал трудового переміщення людей | Чи є у системи потенціал для автоматизації завдань або функцій, які виконувалися людьми? Якщо так, то які наступні наслідки? |
🟡 Можливість маніпулювання ідентичністю, цінностями чи знаннями | Чи система розроблена або потенційно здатна маніпулювати особистістю користувача або встановити цінності чи поширювати дезінформацію? |
🔴 Можливості для самовираження та самореалізації | Чи є потенціал для хитрощів і сумнівів у собі? Чи існує можливість помилкового або непідтверджені претензії експертизи? |
🔴 Міри власної гідності | Чи існує тиск зображати себе ідеалізованим? Чи може автоматизація замінити відчуття особистої реалізації? Чи існує тиск конкурувати з системою в робоче місце? Чи важче захистити індивідуальну репутацію від дезінформації? |
🔴 Конфіденційність | Чи є розсіяні обов’язки щодо захисту конфіденційності та чи є такі зроблені припущення про те, як використовуються персональні дані? |
🔴 Автономність | Чи може система штучного інтелекту впливати на автономію людини, викликаючи надмірну залежність від кінцеві користувачі? |
🔴 Розвиток людини | Чи є вплив на набуття ключових навичок для розвитку людини, як-от вплив на виконавчі функції чи навички міжособистісного спілкування, або зміни часу уваги навчання, розвиток особистості, проблеми з психічним здоров’ям тощо? |
🔴 Турбота про особисте здоров'я | Чи є заяви про самодіагностику чи персоналізовані рішення щодо охорони здоров’я? Якщо так, чи перевірені вони на відповідність нормативним стандартам? |
🔴 Психічне здоров'я | Чи існує ризик підвищеної тривоги, самотності чи інших проблем із психічним здоров’ям, або Чи може технологія зменшити такі наслідки? |
🟢 Еволюція людини | Чи можуть великі мовні моделі та штучний загальний інтелект змінити хід еволюції людини? |
🟢 Взаємодія людина-машина | Чи може використання з часом призвести до декваліфікації та залежності людей? Є чи впливають на взаємодію між людьми? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🔴Суспільні цінності | Чи система фундаментально змінює природу суспільства, чи дозволяє нормалізувати ідеї, які раніше вважалися антисоціальними, чи порушує суспільні цінності культури, в якій вона застосовується? |
🔴 Соціальні взаємодії | Чи це впливає на значущі людські контакти, включаючи емоційні стосунки? |
🔴 Здоров'я населення | Чи існує потенціал для системи просування або підриву намірів щодо здоров’я населення? |
🔴 Культурне самовираження | Чи ймовірно чи важче впоратися зі зростанням культурного присвоєння чи дискримінації? Чи опора на систему прийняття рішень виключає або маргіналізує культурно відповідні секційні зв’язки суспільства? |
🔴 Народна освіта | Чи це впливає на ролі вчителя чи освітні установи? Система підкреслює чи зменшує цифровий розрив і нерівність серед студентів? Внутрішня цінність знань або критичного розуміння підвищена чи занижена? |
🟢 Спотворена реальність | Чи методи, які використовуються для визначення правди, досі застосовні? Чи скомпрометовано сприйняття реальності? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟡 Промисловий сектор | У якому промисловому секторі використовується система (фінанси, сільське господарство, охорона здоров’я, освіта, оборона тощо)? |
🟡 Бізнес-модель | У якій бізнес-функції використовується система і в якій якості? Де використовується система (приватна, державна, некомерційна)? |
🟡 Вплив на важливі дії | Чи вплине збій у функціонування або діяльність системи на основні служби чи критичну інфраструктуру? |
🟡Широта розгортання | Як розгортається система (вузьке використання всередині підрозділу проти широкого національного/міжнародного)? |
🟡 Технічна зрілість | Наскільки технічно зріла система? |
🟢 Сумісність | Чи існує ймовірність того, що на національному чи глобальному рівнях існують обмеження, які перешкоджають вільній торгівлі та впливають на співпрацю з партнерами? |
🟢 Технологічний суверенітет | Чи прагнення до технологічного суверенітету керує поведінкою, включно з контролем над усім ланцюгом постачання ШІ? |
🔴 Перерозподіл доходів і національні фіскальні важелі | Чи можуть бути поставлені під загрозу основні ролі суверенної держави (наприклад, резервні банки)? Чи буде здатність держави задовольняти очікування громадян і відповідати наслідкам (соціальним, економічним, політичним тощо) або зменшуватися? |
🟢 Цифровий розрив (AI divide) | Існуюча цифрова нерівність посилюється чи створюється нова? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🔴 Управління та державна служба | Чи можна вплинути на механізми управління та глобальну систему управління позитивно чи негативно? |
🔴 ЗМІ | Чи може публічний дискурс поляризуватися та закріпитися на рівні населення? Чи вплине це на рівень довіри до четвертої влади? Чи це вплине на звичайну журналістську етику та стандарти чесності? |
🔴 Верховенство права | Чи це вплине на здатність ідентифікувати осіб або організації, яких слід притягнути до відповідальності (наприклад, який тип відповідальності призначити алгоритму для несприятливих результатів)? Чи є втрата суверенітету (екологічна, фіскальна, соціальна політика, етика тощо)? |
🔴Політика та соціальна згуртованість | Чи є ймовірність більш укорінених політичних поглядів і менше можливостей для досягнення консенсусу? Чи існує можливість подальшої маргіналізації груп? Змагальні стилі політики більш чи менш вірогідні? |
🟢 Соціальна ліцензія | Чи є питання конфіденційності, проблеми довіри та моральні проблеми, які необхідно враховувати, щоб зацікавлені сторони погодилися на використання? |
🟢 Корінні знання | Чи можуть знання та дані корінного населення бути пошкоджені або привласнені? Чи існують адекватні заходи для захисту від спотворення, дезінформації та експлуатації? |
🟢 Наукова система | Чи порушується академічна та дослідницька доброчесність? Чи є втрата довіри до науки? Чи існують можливості неправильного використання, надмірного використання чи зловживання? Який наслідок практики науки? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟢 Точне спостереження | Чи навчаються системи на індивідуальних поведінкових і біологічних даних і чи можуть вони використовуватися для експлуатації окремих осіб або груп? |
🟢 Цифровий конкурс | Чи можуть державні чи недержавні суб’єкти (наприклад, великі технологічні компанії) використовувати системи та дані для розуміння та контролю населення та екосистем інших країн або підірвати юрисдикційний контроль? |
🟢 Геополітична конкуренція | Чи може ця система викликати конкуренцію між країнами щодо використання індивідуальних і групових даних в інтересах економіки, медицини та безпеки? |
🟢 Зміна глобальних сил | Чи статус національних держав як головних геополітичних акторів світу під загрозою? Чи технологічні компанії володіють владою, яка колись була зарезервована для національних держав, і чи стали вони незалежними, суверенними акторами (технополярний світопорядок, що виникає)? |
🟢 Дезінформація | Чи сприятиме ця система виробництву та поширенню дезінформації державними та недержавними суб’єктами, що вплине на соціальну єдність, довіру та демократію? |
🟢 Програми подвійного використання | Чи є можливість як для військового, так і для цивільного використання? |
🟢 Фрагментація глобального порядку | Чи можуть розвинутися розриви або кластери регулювання та відповідності, які перешкоджають співпраці, призводять до неузгодженості в застосуванні та створюють простір для конфлікту? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟢 Споживання енергії та ресурсів (вуглецевий слід) | Чи система та вимоги збільшують споживання енергії та ресурсів понад підвищення ефективності, отримане завдяки застосуванню? |
🟢Джерело енергії | Звідки береться енергія для системи (відновлювані джерела чи викопне паливо тощо)? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟡 Напрямок та колекція | Дані та вхідні дані збираються людьми, автоматизованими датчиками чи тим і іншим? |
🟡 Походження даних | Чи дані та внески експертів надані, спостережувані, синтетичні чи похідні? Чи існують водяні знаки для підтвердження походження? |
🟡 Динамічний характер даних | Дані динамічні, статичні, динамічно оновлюються час від часу чи в режимі реального часу? |
🟡 Права | Чи дані конфіденційні, публічні чи особисті (пов’язані з особами, які можна ідентифікувати)? |
🟡 Ідентифікація та персональні дані | Якщо дані особисті, чи є дані анонімними чи псевдонімними? |
🟡 Структура даних | Чи є дані структурованими, напівструктурованими, складно структурованими чи неструктурованими? |
🟡 Формат даних | Формат даних і метаданих стандартизований чи нестандартизований? |
🟡 Масштаб даних | Який масштаб набору даних? |
🟡 Доречність і якість даних | Чи підходить набір даних для цілей? Чи адекватний розмір вибірки? Чи достатньо він репрезентативний і повний? Наскільки зашумлені дані? Це схильне до помилок? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟡 Доступність інформації | Чи є якась інформація про модель системи? |
🟡 Тип моделі ШІ | Чи є модель символічною (правила, створені людиною), статистичною (використовує дані) чи гібридною? |
🟡 Права, пов’язані з моделлю | Модель із відкритим вихідним кодом чи пропрієтарною, самостійно чи третьою стороною керується? |
🟡 Одна з кількох моделей | Система складається з однієї моделі чи кількох взаємопов’язаних моделей? |
🟡 Породжувальні або дискримінаційні | Чи є модель генеративною, дискримінаційною чи обома? |
🟡 Побудова моделі | Чи навчається система на основі написаних людиною правил, з даних, через контрольоване навчання чи через навчання з підкріпленням? |
🟡 Еволюція моделі (дрейф AI) | Чи розвивається модель та/або набуває можливостей завдяки взаємодії з даними в полі? |
🟡 Федеративне або централізоване навчання | Модель навчена централізовано чи на кількох локальних серверах чи «граничних» пристроях? |
🟡 Розробка/обслуговування | Чи є модель універсальною, настроюваною чи адаптованою до даних актора ШІ? |
🟡 Детермінований або імовірнісний | Чи використовується модель у детермінований чи ймовірнісний спосіб? |
🟡 Прозорість моделі | Чи доступна інформація для користувачів, щоб вони могли зрозуміти результати моделі та обмеження чи використовувати обмеження? |
🟢 Обмеження обчислень | Чи існують обчислювальні обмеження системи? Чи можливо передбачити стрибки можливостей або закони масштабування? |
Критерії | Приклади того, як це може бути відображено в аналізі |
🟡 Завдання, які виконує система | Які завдання виконує система (розпізнавання, виявлення подій, прогнозування тощо)? |
🟡 Поєднання завдань і дій | Чи поєднує система кілька завдань і дій (системи генерації контенту, автономні системи, системи керування тощо)? |
🟡 Рівень автономності системи | Наскільки автономними є дії системи і яку роль відіграють люди? |
🟡 Ступінь участі людини | Чи існує певна участь людини для нагляду за загальною діяльністю системи ШІ та здатності вирішувати, коли та як використовувати систему ШІ в будь-якій ситуації? |
🟡 Основна програма | Чи належить система до основної сфери застосування, такої як технології людської мови, комп’ютерне зір, автоматизація та/або оптимізація чи робототехніка? |
🟡 Оцінка | Чи доступні стандарти або методи для оцінки результатів системи? |
Як можна використовувати цю структуру?
Цю структуру можна використовувати багатьма способами, зокрема:
Шлях вперед
Підводячи підсумок, аналітична структура надається як основа інструментарію, який зацікавлені сторони можуть використовувати для всебічного розгляду будь-яких значних розробок платформ або використання в послідовний і систематичний спосіб. Виміри, представлені в цій структурі, мають відношення від оцінки технологій до державної політики, від розвитку людського потенціалу до соціології та досліджень майбутнього та технологій. Незважаючи на те, що ця аналітична структура розроблена для штучного інтелекту, вона має набагато ширше застосування для будь-якої іншої технології, що розвивається.
6 Консультативна рада АІ ООН. 2023. Проміжний звіт: керуючий ШІ для людства. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Подяки
З багатьма людьми було проведено консультації та надано відгуки під час розробки як початкового документа для обговорення, так і відгуків після його випуску. Обидва документи були підготовлені сером Пітером Глакманом, президентом ISC, і Хемою Срідхаром, колишнім головним науковим радником Міністерства оборони Нової Зеландії, а нині старшим науковим співробітником Оклендського університету Нової Зеландії.
Зокрема, лорд ISC Мартін Ріс, колишній президент Королівського товариства та співзасновник Центру вивчення екзистенційних ризиків Кембриджського університету; Професор Шіваджі Сонді, професор фізики Оксфордського університету; професор К. Віджай Рагхаван, колишній головний науковий радник уряду Індії; Амандіп Сінгх Гілл, посланник Генерального секретаря ООН з питань технологій; Seán Ó hÉigeartaigh, виконавчий директор Центру вивчення екзистенціальних ризиків, Кембриджський університет; Сер Девід Шпігельхальтер, професор Університету громадського розуміння ризику Вінтона
Кембридж; Аманда-Джун Браунер, старший політичний радник, і Ян Віггінс, директор з міжнародних справ, Королівське товариство, Великобританія; д-р Джером Дюбері, керуючий директор, і д-р Марі-Лор Саллес, директор Женевського вищого інституту; Чор Фарн Лі, Центр стратегічного майбутнього, Офіс прем'єр-міністра, Сінгапур; Баренд Монс і доктор Саймон Ходсон, Комітет з даних (CoDATA); професор Юко Хараяма, колишній виконавчий директор RIKEN; професор
Ремі Квіріон, президент INGSA; д-р Клер Крейг, Оксфордський університет і колишній керівник відділу прогнозування, Урядовий офіс науки; Професор Йошуа Бенгіо, Наукова консультативна рада Генерального секретаря ООН та Університет Монреаля; та багато інших, хто надав коментар ISC щодо початкового документа для обговорення.
Підготовка національних дослідницьких екосистем для штучного інтелекту: стратегії та прогрес у 2024 році
Цей робочий документ від мозкового центру ISC, Center for Science Futures, надає фундаментальну інформацію та доступ до ресурсів з країн з усіх куточків світу на різних етапах інтеграції штучного інтелекту в їхні дослідницькі екосистеми.