Мазаракі, НаталіяНаталіяМазаракіКОРТУКОВА, ТамараТамараКОРТУКОВА2026-03-182026-03-182026-02-16Мазаракі, Н., КОРТУКОВА, Т. (2026). TOWARDS RESPONSIBLE AI IN LEGAL SERVICES:THE CASE FOR REGULATING CHATBOTS. Bulletin of Taras Shevchenko National University of Kyiv. Legal Studies, 130(2), 58–66. https://doi.org/10.17721/1728-2195/2025/2.130-910.17721/1728-2195/2025/2.130-9https://ir.library.knu.ua/handle/15071834/13412B a c k g r o u n d . The rapid adoption of chatbots in legal services has created new opportunities for improving access to justice, while simultaneously raising unresolved questions about risks, accountability, and regulatory oversight. Recent initiatives illustrate the potential of these tools to reduce costs, overcome geographical barriers, and provide timely guidance to self-represented litigants. Yet the same features that make chatbots attractive-instant availability, natural language fluency, and apparent expertise-also magnify dangers: misinformation, bias, breaches of confidentiality, and impacts on due process. Against this background, this paper asks what regulatory and self-regulatory measures are necessary to ensure that legal chatbots deliver accurate, fair, and rights-compliant assistance. M e t h o d s . The study employs a structured, multi-stage methodology. It begins by defining "legal chatbot" and classifying them along a functional continuum from informational to advisory and rights-reporting systems. This typology enables a risk- based assessment of harms. Using access to justice as an evaluative lens, the analysis then examines benefits and vulnerabilities through indicators drawn from the WJP Rule of Law Index. Evidence is synthesized from case law, academic studies, and professional reports, and benchmarked against regulatory frameworks such as the EU AI Act, the GDPR, and Council of Europe instruments, supplemented by national guidelines and emerging professional standards. R e s u l t s . Findings show that legal chatbots range from low-risk informational assistants to high-risk advisory tools directly affecting fundamental rights. While informational chatbots primarily require transparency and update obligations, advisory and rights-reporting systems demand stronger safeguards, including verification, human oversight, and liability mechanisms. Existing regulation provides partial coverage but remain too general or fragmented, leaving significant governance gaps. C o n c l u s i o n s . The paper concludes that a hybrid model is required: binding regulatory measures to anchor transparency, accountability, and data protection, coupled with self-regulatory initiatives from bar associations and courts to guide professional responsibility. Collaborative oversight among developers, regulators, and professional bodies is essential to balance innovation with accountability. Ultimately, legal chatbots can enhance access to justice, but only if governed by proportionate frameworks that safeguard fairness, due process, and public trust.В с т у п . Швидке впровадження чатботів у сфері надання правових послуг створює нові можливості для поліпшення доступу до правосуддя, водночас піднімаючи невирішені питання щодо ризиків, підзвітності та регуляторного нагляду. Останні ініціативи демонструють потенціал цих інструментів у зниженні витрат, подоланні географічних бар'єрів і наданні своєчасних консультацій особам, які представляють себе в суді самостійно. Проте ті самі характеристики, що роблять чатботи привабливими, – миттєва доступність, природна мовна плавність і видима експертність – також підсилюють небезпеки: дезінформацію, упередженість, порушення конфіденційності та вплив на належну правову процедуру. На цьому тлі стаття ставить питання: які регуляторні та саморегуляторні заходи необхідні, аби забезпечити надання чатботами точних, справедливих і таких, що відповідають правам, консультацій? М е т о д и . Дослідження спирається на структуровану багатоступеневу методологію. Спочатку визначається поняття "юридичний чатбот" і класифікуються його види за функціональним континуумом – від інформаційних до консультативних і таких, що повідомляють про права. Ця типологія дає змогу проводити оцінювання ризиків за функціональним підходом. Використовуючи доступ до правосуддя як оціночну призму, аналіз розглядає переваги та вразливості через індикатори, запозичені з Індексу верховенства права WJP. Дані синтезуються із судової практики, академічних досліджень і професійних звітів та співвідносяться з такими регуляторними рамками, як Акт ЄС про штучний інтелект, GDPR і документи Ради Європи, доповнені національними настановами й новими професійними стандартами. Р е з у л ь т а т и показують, що юридичні чатботи варіюються від малоризикових інформаційних асистентів до високоризикових консультативних систем, що безпосередньо впливають на фундаментальні права. Якщо для інформаційних чатботів головними вимогами є прозорість і регулярне оновлення, то консультативні та rights-reporting-системи потребують більш суворих гарантій, включно з перевіркою достовірності, людським наглядом та чіткими механізмами відповідальності. Існуюче регулювання забезпечує лише часткове охоплення і залишається надто загальним або фрагментованим, залишаючи значні прогалини. В и с н о в к и . У підсумку доходимо висновку, що потрібна гібридна модель: обов'язкові регуляторні заходи для забезпечення прозорості, підзвітності та захисту даних у поєднанні із саморегуляторними ініціативами адвокатських асоціацій і судів для підтримки професійної відповідальності. Спільний нагляд з боку розробників, регуляторів і професійних інституцій є необхідним для збереження балансу між інноваціями та підзвітністю. Зрештою, правові чатботи здатні посилити доступ до правосуддя, але лише за умови, що вони регулюватимуться пропорційними рамками, які гарантують справедливість, дотримання процесуальних прав і суспільну довіру.ukKeywords: Artificial intelligencelegal chatbotsaccess to justicetech governanceEU digital law. Доступ до правосуддяШтучний інтелектЦифрове право ЄСЮридичні чатботиРегулювання технологій.TOWARDS RESPONSIBLE AI IN LEGAL SERVICES:THE CASE FOR REGULATING CHATBOTSДО ВІДПОВІДАЛЬНОГО ШТУЧНОГО ІНТЕЛЕКТУАЛЬНОГО СТВОРЕННЯВ ЮРИДИЧНИХ ПОСЛУГАХ: АРГУМЕНТИ РЕГУЛЮВАННЯ ЧАТБОТІВСтаття