Принаймні, таку амбітну мету ставить собі Мінцифри
Вже наступного року в Україні може з’явитися цифровий
суд. Новий сервіс базуватиметься на технологіях штучного інтелекту та
розглядатиме адміністративні справи. За словами міністра цифрової трансформації
Михайла Федорова, створення електронного суду стане пріоритетним завданням
відомства у 2026 році.
Аналогів такого проєкту у світі поки що не існує,
додає Федоров. Завдяки цифровізації суду розгляд адміністративних справ
відбуватиметься лише у кілька кліків. «Ми хочемо розвантажити суди і впровадити
новий підхід до цього», – каже міністр, наголошуючи на значущості AI-суду для
підвищення ефективності судової системи.
А тим часом на початку грудня Новозаводський райсуд
Чернігова потрапив у дещо неоднозначну «ситуацію». Суд розглядав адміністративну справу і використав
для написання ухвали штучний інтелект. В даному випадку ШІ не опрацьовував
матеріали справи, він лише відредагував текст рішення. Судді випадково залишили
в ухвалі фразу «ось перевірений і відредагований варіант вашого тексту з
виправленням граматичних, стилістичних і пунктуаційних помилок», яку написав
ШІ-асистент.
Над Новозаводським райсудом сміялися в мережі та
дорікали йому за використання ШІ. Хоча нічого протиправного судді не зробили,
єдиний їх «гріх» – бажання оперативно покращити стилістику рішення в умовах
значного навантаження. Але цей випадок показовий, бо він загострює питання, а
чи готові ми в принципі до використання ШІ у судовій царині. Для початку
проаналізуємо те, на що взагалі здатний штучний інтелект.
Лише
кілька кліків
А здатен він на те, щоб розвантажити судову систему
під час розгляду нескладних справ або написання деяких судових наказів.
Наприклад, про стягнення заборгованості або призначення аліментів. На розгляд
ШІ можна залишити справи помірної складності із незначним колом обставин. Наприклад,
про стягнення виплат на дитину після розлучення подружньої пари – це проста
справа, і обставин тут небагато. Зовсім інша річ – вбивство людини. За таке ШІ
братися зарано.
Де іще ШІ може стати у пригоді? Нині розвивають
платформи, які допомагають сторонам по справі спрогнозувати судові рішення, а
суддям – визначати результат судового розгляду. Навіщо це потрібно? Це певною
мірою економить час та зусилля при розгляді справи, та й загалом людські й
матеріальні ресурси. Хоча тут є занепокоєння, що системи ШІ можуть призвести до
дискримінаційних процесів і створити загрозу фундаментальним правам людини. Як
саме – про це йтиметься пізніше, а поки що – до базових питань.
А
як у Європі використовують ШІ у судах?
Ми рухаємося до Європи, а тому не зайвим буде
поцікавитись, що говорять нормативні акти Євросоюзу про використання ШІ. А
говорять вони ось що.
Вперше Рада Європи звернула погляд на проблематику ШІ
у 2017 році. За три роки по тому – у жовтні 2020-го – були видані висновки Ради
Європи під назвою «Доступ до правосуддя – використання можливостей
цифровізації», де були розглянуті всі ризики ШІ. Як то кажуть, плюси, мінуси та
підводне каміння.
Згодом, у 2021-му, був ухвалений «Закон про штучний
інтелект» (Artificial Intelligence Act, або просто AI Act), який відніс
застосування штучного інтелекту у сфері правосуддя до високоризикованого. Але
це, щоправда, стосувалося систем ШІ, призначених для дослідження та
інтерпретації фактів. Тоді як їх – систем ШІ – насправді є багато, і функціонал
у них різний, як і, власне, призначення.
Зрештою, 6 жовтня 2021 року Європейський парламент ухвалив
«Резолюцію про штучний інтелект у кримінальному законодавстві та його
використання поліцією». Ця резолюція вимагає, аби застосування ШІ не йшло у
розріз із принципами:
· людської
гідності,
· недискримінації,
· свободи
пересування,
· презумпції
невинуватості,
· свободи
вираження поглядів
· та
рівності перед законом відповідно до Європейської конвенції з прав людини.
Резолюція також вказала на те, що існують на ризики,
пов’язані, зокрема, з витоком даних, порушенням безпеки даних і
несанкціонованим доступом до інформації.
А тому критично важливим є людський нагляд за
застосуванням ШІ у всіх його аспектах.
Табу
для ШІ
Європейські інституції зазначають, що штучний інтелект
не повинен розкривати – на будь-якому етапі судового процесу – імена та
особисті дані його учасників.
Крім того, ШІ слід навчити тому, що таке «особливо
чутливий характер даних». А це все те, що стосується національного або расового
походження людини, політичних, релігійних або інших її переконань, фізичного
або психічного здоров’я та / або статевого життя. Такі дані вважаються чутливою
інформацією і не підлягають оприлюдненню.
Іншою загрозою для прав людини можуть слугувати
програми на основі ШІ, які використовуються для збору персональних даних особи
та моделювання її схильності до правопорушень у майбутньому.
Є цілий ряд таких систем, які цікаві вузьким
спеціалістам, та я все ж назву бодай дві з них. Це HART (Harm Assessment Risk
Tool), яка проходила тестування у Великій Британії, та COMPAS (Correctional
Offender Management Profiling for Alternative Sanctions), котра
використовувалася в США і мала на меті оцінку ризику вчинення повторного
злочину.
Цікаво, що британська HART мала суто консультативне
значення для судді, а от американська технологія COMPAS була обов’язковою у
деяких федеральних штатах Америки.
Але якраз COMPAS викликає серйозні побоювання.
Зазначається, що висновки цієї системи можуть призвести до дискримінаційного
ставлення з боку судді при винесенні вироку. COMPAS, як виявилося, має певні
расові упередження щодо тих, хто може стати рецидивістом. А відтак серйозно
помиляється у своїх прогнозах. Бо зрештою лише 20 відсотків людей, яким
прогнозували скоєння насильницьких злочинів, насправді їх скоїли.
Бути
«Кассандрою»
Хоча Федоров анонсує запуск ШІ-правосуддя як новацію, ще
у 2020-му міністерством юстиції
України було розроблене програмне забезпечення з елементами штучного інтелекту
під назвою «Кассандра». Ця система, по суті, складає профайл злочинця і
аналізує, наскільки він схильний або ні порушувати закон у майбутньому.
Програма пропонує фігуранту відповісти на запитання і
відповідно до відповідей оцінює ймовірність скоєння нового злочину від 0 до 97.
І це, за задумом створювачів, допомагає сформувати правильне ставлення до
підсудного.
Водночас зазначається, що впровадження штучного
інтелекту в систему правосуддя України є досить складним процесом. Адже він
потребує як вирішення низки технічних проблем, так і вдосконалення алгоритмів
задля неупередженого судового розгляду і дотримання прав людини.
Ще одним проблемним аспектом використання ШІ в системі
правосуддя є біометрична ідентифікація осіб у публічно доступних місцях. Плюс –
механізми навчання ШІ на основі отриманих аудіовізуальних даних, адже це
створює високий ризик втручання в приватне життя особи.
А тому діюче законодавство потребує уточнення та
внесення змін щодо того, як буде дозволено використовувати ШІ для прогнозування
повторних злочинів та для профайлінгу.
Крім того, усі запропоновані системи зобов’язані
пройти незалежне тестування на упередженість як на етапі розробки, так і на
всіх етапах функціонування. А для цього необхідно вдосконалити збір даних,
включаючи дані з розбивкою за расовою, етнічною та національною приналежністю.
Простіше кажучи: повинно бути зрозуміло, як працює
система, як вона управляється і як приймає рішення. Кожен, на кого впливають ці
системи та їхні результати, наприклад, підозрювані та обвинувачені, повинні
мати можливість розуміти, як вони працюють, так само як і широка громадськість.
Люди, які приймають рішення у сфері кримінального
правосуддя, повинні обґрунтовувати свої рішення та надавати докази того, як на
них вплинули системи ШІ.
Нарешті, особа повинна бути повідомлена щоразу, коли
система ШІ вплинула або могла вплинути на рішення в системі кримінального
правосуддя, яке її стосується. Також повинні існувати чіткі процедури
оскарження рішень ШІ та або самих систем, а також шляхи відшкодування збитків.
Краще
ШІ-правосуддя, аніж те, яке нині існує в Україні?
Застосування ШІ у будь-якій сфері (не лише судовій)
має свої плюси та мінуси. Це надто недосконалий інструмент, аби покладатися на
нього повною мірою. Хоча передбачаю іронічний коментар: краще замінити нинішніх
суддів на їх цифровий аналог. Але що все ж таки обрати: «цифру», яка дає збої,
чи «живі» кадри, в чиїх професійних якостях та неупередженості часто-густо
виникають сумніви?
Якщо відповідати на це питання серйозно і зважено, то
нагадаю: іще рік тому З'їзд суддів України затвердив нову редакцію Кодексу
суддівської етики, стаття 16-та якого містить пряму норму, що регулює
використання штучного інтелекту суддями. Відповідно до цієї статті судді можуть
використовувати технології ШІ, якщо це не шкодить їхній незалежності та
неупередженості, не впливає на оцінку доказів і процес ухвалення рішень, а
також не порушує вимог законодавства.
Ключова ідея полягає в тому, що стовідсоткова
відповідальність за діяльність судової системи, яка спирається на ШІ, лежить на
тих, хто використовує штучний інтелект. Не на самому ШІ, бо це – абстракція. Як
у запиті, який формує суддя, так і в перевірці результату, відповідальність за
кінцевий підсумок – це винятково справа користувача.
Добре було б знайти баланс між людиною та ШІ як її
помічником і не поспішати із впровадженням того, що на даному етапі приносить
користь, співставну зі шкодою від використання штучного інтелекту.
Рубрика "Блоги читачів" є майданчиком вільної журналістики та не модерується редакцією. Користувачі самостійно завантажують свої матеріали на сайт. Редакція не поділяє позицію блогерів та не відповідає за достовірність викладених ними фактів.