Штучний інтелект у судочинстві: реальність чи фантазії?

23 грудня 2024, 18:52
Власник сторінки
Юрист, адвокат
0
Штучний інтелект у судочинстві: реальність чи фантазії?

ШІ у системі правосуддя працює вже. Чи, принаймні, намагається працювати

Насправді я дуже далеко від боксу, але новина про те, що вперше в історії поєдинок між Усиком і Ф’юрі оцінюватиме штучний інтелект, змусила трохи пригальмувати. А що, якби функції правосуддя поза спортивною ареною були б також делеговані штучному інтелекту? Здається, це непогана ідея – бодай з огляду на корупційні скандали, в які раз-у-раз потрапляють служителі Феміди, та й на невисокий рівень довіри до вітчизняного правосуддя. Жарти – жартами, але над такою можливістю вже працюють – і в Європі, і у нас. То чи можливо таке, що перебіг судового процесу дійсно визначатиме штучний інтелект? Про це – далі у моїй статті.

На що здатен ШІ?

Штучний інтелект цілком може допомогти розвантажити судову систему під час розгляду нескладних справ або ж видання деяких судових наказів. Наприклад, про стягнення заборгованості або призначення аліментів. На розгляд ШІ можна залишити справи незначної складності із незначним колом обставин. Тобто коли є пара, яка розлучилася, і де з одного члена подружжя треба стягнути виплати на дитину – це проста справа, і обставин тут небагато. А от вбивство – це, звісно, зовсім інша річ. За таке ШІ братися зарано.  

Де іще ШІ може стати у пригоді? Нині розвивають платформи, які допомагають сторонам по справі спрогнозувати судові рішення, а суддям – визначати результат судового розгляду. Навіщо це потрібно? Це певною мірою економить час та зусилля при розгляді справи, та й загалом людські й матеріальні ресурси. Хоча тут є занепокоєння, що системи ШІ можуть призвести до дискримінаційних процесів і створити загрозу фундаментальним правам людини. Як саме – про це я розповім пізніше, а поки що – до базових питань.

Що каже про ШІ у правосудді європейське законодавство? 

Оскільки Україна – з огляду й на наш євроінтеграційний поступ – дуже залежна від партнерів, не зайвим буде поцікавитись, що говорять нормативні акти Євросоюзу про використання ШІ. А говорять вони ось що.

Вперше Рада Європи звернула погляд на проблематику ШІ у 2017 році. За три роки по тому – у жовтні 2020-го – були видані висновки Ради Європи під назвою «Доступ до правосуддя – використання можливостей цифровізації», де були розглянуті всі ризики ШІ. Як то кажуть, плюси, мінуси та підводне каміння.

Згодом, у 2021-му, був ухвалений «Закон про штучний інтелект» (Artificial Intelligence Act, або просто AI Act), який відніс застосування штучного інтелекту у сфері правосуддя до високоризикованого. Але це, щоправда, стосувалося систем ШІ, призначених для дослідження та інтерпретації фактів. Тоді як їх – систем ШІ – насправді є багато, і функціонал у них різний, як і, власне, призначення.

І – щоб завершити огляд законодавства щодо ШІ – зазначу, що 6 жовтня 2021 року Європейський парламент ухвалив «Резолюцію про штучний інтелект у кримінальному законодавстві та його використання поліцією. Ця резолюція вимагає, аби застосування ШІ не йшло у розріз із принципами:

·       людської гідності,

·       недискримінації,

·       свободи пересування,

·       презумпції невинуватості,

·       свободи вираження поглядів

·       та рівності перед законом відповідно до Європейської конвенції з прав людини.

Резолюція також вказала на те, що існують на ризики, пов’язані, зокрема, з витоком даних, порушенням безпеки даних і несанкціонованим доступом до інформації.

А тому критично важливим є людський нагляд за застосуванням ШІ у всіх його аспектах.

Що не повинен робити ШІ

Європейські інституції зазначають, що штучний інтелект не повинен розкривати – на будь-якому етапі судового процесу – імена та особисті дані його учасників.

Крім того, ШІ слід навчити тому, що таке «особливо чутливий характер даних». А це все те, що стосується національного або расового походження людини, політичних, релігійних або інших її переконань, фізичного або психічного здоров’я та / або статевого життя. Такі дані вважаються чутливою інформацією і не підлягають оприлюдненню.

Іншою загрозою для прав людини можуть слугувати програми на основі ШІ, які використовуються для збору персональних даних особи та моделювання її схильності до правопорушень у майбутньому.

Є цілий ряд таких систем, які цікаві вузьким спеціалістам, та я все ж назву бодай дві з них. Це HART (Harm Assessment Risk Tool), яка проходила тестування у Великій Британії, та COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), котра використовувалася в США і мала на меті оцінку ризику вчинення повторного злочину.

Цікаво, що британська HART мала суто консультативне значення для судді, а от американська технологія COMPAS була обов’язковою у деяких федеральних штатах Америки.

Але якраз COMPAS викликає серйозні побоювання. Зазначається, що висновки цієї системи можуть призвести до дискримінаційного ставлення з боку судді при винесенні вироку. COMPAS, як виявилося, має певні расові упередження щодо тих, хто може стати рецидивістом. А відтак серйозно помиляється у своїх прогнозах. Бо зрештою лише 20 відсотків людей, яким прогнозували скоєння насильницьких злочинів, насправді їх скоїли.

Українське судочинство та ШІ

Про це мало хто знає, але ще у 2020-му міністерством юстиції України було розроблене програмне забезпечення з елементами штучного інтелекту під назвою «Кассандра». Ця система, по суті, складає профайл злочинця і аналізує, наскільки він схильний або ні порушувати закон у майбутньому.

Програма пропонує фігуранту відповісти на запитання і відповідно до відповідей оцінює ймовірність скоєння нового злочину від 0 до 97. І це, за задумом створювачів, допомагає сформувати правильне ставлення до підсудного.

Водночас зазначається, що впровадження штучного інтелекту в систему правосуддя України є досить складним процесом. Адже він потребує як вирішення низки технічних проблем, так і вдосконалення алгоритмів задля неупередженого судового розгляду і дотримання прав людини.

Ще одним проблемним аспектом використання ШІ в системі правосуддя є біометрична ідентифікація осіб у публічно доступних місцях. Плюс – механізми навчання ШІ на основі отриманих аудіовізуальних даних, адже це створює високий ризик втручання в приватне життя особи.

А тому діюче законодавство потребує уточнення та внесення змін щодо того, як буде дозволено використовувати ШІ для прогнозування повторних злочинів та для профайлінгу.

Крім того, усі запропоновані системи обов’язані пройти незалежне тестування на упередженість як на етапі розробки, так і на всіх етапах функціонування. А для цього необхідно вдосконалити збір даних, включаючи дані з розбивкою за расовою, етнічною та національною приналежністю.

Простіше кажучи: повинно бути зрозуміло, як працює система, як вона управляється і як приймає рішення. Кожен, на кого впливають ці системи та їхні результати, наприклад, підозрювані та обвинувачені, повинні мати можливість розуміти, як вони працюють, так само як і широка громадськість.

Люди, які приймають рішення у сфері кримінального правосуддя, повинні обґрунтовувати свої рішення та надавати докази того, як на них вплинули системи ШІ.

Нарешті, особа повинна бути повідомлена щоразу, коли система ШІ вплинула або могла вплинути на рішення в системі кримінального правосуддя, яке її стосується. Також повинні існувати чіткі процедури оскарження рішень ШІ та або самих систем, а також шляхи відшкодування збитків.

Словом, роботи ще багато. І не треба бути «Касандрою», аби спрогнозувати, що відповідне законодавство – з огляду на війну та більш актуальні завдання – буде розроблене ще нескоро. Можливо, нові системи штучного інтелекту з’являться навіть раніше, аніж парламент напрацює відповідні акти, бо технічний прогрес не стоїть на місці. Але це не означає, що ми повинні квапитися переводити судочинство на нові рейки.

І зовсім наостанок

Я завершувала роботу над цією статтею, коли стало відомо, що Україна зазнала наймасштабнішої кібератаки на державні реєстри. І що російські хакери зуміли нехай тимчасово, але все ж призупити роботу ключових систем міністерства юстиції.

Ця ситуація змушує подивитись на надії, котрі ми покладаємо і на цифровізацію, і на використання ШІ, під новим кутом зору. Зламати електронну систему можна завжди – мабуть, не існує тих, що захищені на 100%. А от зламати совість судді (якщо вона є), вочевидь, таки важче. 

Так що плюси і мінуси є скрізь – і у застосуванні людського фактору, і у спробах винести його за дужки. Можна обійтися без людини і покластися на машину, але остання дає збої. Краще все таки покладатися на «живі» кадри, чиї професійні якості та сумління переважатимуть штучний інтелект.

 

Рубрика "Блоги читачів" є майданчиком вільної журналістики та не модерується редакцією. Користувачі самостійно завантажують свої матеріали на сайт. Редакція не поділяє позицію блогерів та не відповідає за достовірність викладених ними фактів.
РОЗДІЛ: Новости политики
Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.