Роман Елошвілі — засновник ComplyControl, стартапу з автоматизованого контролю відповідності та виявлення шахрайства для фінансових установ, що базується на штучному інтелекті.
Дізнайтеся про головні новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній
Що насправді тестує штучний інтелект у сфері відповідності: технології чи нас самих?
У фінансових послугах відповідність вже давно перестала бути просто функцією. Це активна точка напруги — де стикаються регулювання, ризики та операції. З впровадженням технологій штучного інтелекту у цю сферу постійно виникає одне питання: наскільки ми справді можемо автоматизувати процеси, і хто несе відповідальність, коли щось йде не так?
Привабливість штучного інтелекту у виявленні шахрайства та забезпеченні відповідності легко зрозуміти. Фінансові установи стикаються з зростаючими очікуваннями обробляти величезні обсяги даних, реагувати на змінювані загрози та дотримуватися нових правил — при цьому не жертвуючи швидкістю або точністю. Автоматизація, особливо за допомогою машинного навчання, пропонує спосіб зменшити операційне навантаження. Але вона також викликає глибші питання щодо управління, пояснюваності та контролю.
Ці напруги не є теоретичними. Вони розгортаються у реальному часі, коли фінансові компанії впроваджують моделі штучного інтелекту у ролі, традиційно виконуваній людськими аналітиками. За лаштунками з’являються нові ризики: хибні спрацьовування, сліпі зони аудиту та алгоритмічні рішення, які залишаються непрозорими для користувачів і регуляторів.
Одночасно, фахівців з відповідності просять змінити ролі. Замість ручної перевірки кожної транзакції вони тепер контролюють інструменти, що це роблять. Ця переорієнтація — від виконавця до оцінювача — вимагає не лише нових технічних навичок, а й більш глибокого почуття етичної та процедурної відповідальності. Штучний інтелект може масштабувати аналіз даних. Він може виявляти невідповідності. Але він не здатен повністю пояснити намір, інтерпретувати контекст або взяти на себе провину.
Розуміння цих обмежень є критичним. І мало хто краще за Романа Елошвілі, засновника британської компанії з технологій відповідності ComplyControl, здатен їх досліджувати. Його робота знаходиться саме на перетині ризиків, автоматизації та контролю — там, де алгоритмічна ефективність зустрічається з регуляторним наглядом.
З більш ніж десятирічним досвідом у цій галузі, Роман бачив на власні очі, як змінюються команди відповідності і як штучний інтелект трансформує їхні робочі процеси та обов’язки. Він стверджує, що обіцянка штучного інтелекту полягає не в усуненні людських ролей, а у їхньому переосмисленні — у тому, щоб чіткіше визначити, що мають обробляти машини, а що залишати за людьми.
Ця зміна вимагає більше, ніж технічних оновлень. Вона потребує культурної переорієнтації щодо відповідальності. Прозорі системи, аудитуємі процеси і чітко визначена людська відповідальність — вже не просто функції, а мінімальні стандарти. Коли штучний інтелект впроваджується у критичну інфраструктуру, він не просто вирішує проблеми. Він вводить нову категорію рішень, які вимагають активного стратегічного управління.
У цій розмові для FinTech Weekly Роман пропонує реалістичний погляд на те, що потрібно для відповідального впровадження штучного інтелекту у сфері відповідності та запобігання шахрайству. Його точка зору не подає автоматизацію як неминучість, а як вибір — такий, що вимагає постійного людського судження, операційної ясності та готовності ставити складні питання про те, де справді знаходиться довіра.
Ми раді поділитися його думками у час, коли багато у фінтеху запитують не про те, чи впроваджувати штучний інтелект, а як зробити це так, щоб не втратити стандарти, що забезпечили роботу фінансових систем спочатку.
1. Ви побудували кар’єру на перетині відповідності та технологій. Чи можете пригадати момент, коли зрозуміли, що штучний інтелект може кардинально змінити підходи до управління ризиками?
Я б не сказав, що це був один конкретний момент, що все змінив. Скоріше, це був процес, що розтягнувся у часі. Я багато працював із відомими європейськими банками, і постійно помічав, що багато з них значно відстають у цифрових банківських рішеннях. Контраст був особливо помітним у порівнянні з більш просунутими фінтех-центрами.
Кілька років тому, коли тема розвитку штучного інтелекту знову почала активно обговорюватися, я зацікавився цим і почав досліджувати. Вивчаючи технології та їхню роботу, я зрозумів, що штучний інтелект має потенціал кардинально змінити підходи банків до відповідності, зробивши їх більш сучасними та гнучкими, у порівнянні з традиційними методами.
Саме це й спонукало мене заснувати свою компанію у 2023 році. Складність управління відповідністю та ризиками лише зростає з кожним роком. Зіткнувшись із цим, наше завдання — пропонувати рішення на базі штучного інтелекту фінансовим компаніям і допомагати їм ефективніше справлятися з цими викликами.
2. З вашої професійної точки зору, як змінилася роль людських фахівців із впровадженням більш просунутих інструментів штучного інтелекту у сфері відповідності та виявлення шахрайства?
Перш за все, хочу сказати одне. Існує поширена тривога, що штучний інтелект замінить людську працю. І щодо фахівців з відповідності та ризиків моя відповідь — ні, принаймні, не найближчим часом.
Хоча штучний інтелект уже трансформує нашу галузь, він ще далекий від ідеалу. Тому людська участь залишається необхідною. Регулювання змінюються постійно, і хтось має нести відповідальність, коли системи дають збій або роблять помилки. На нинішньому рівні розвитку штучний інтелект ще не здатен чітко пояснити свої рішення, тому він не готовий працювати самостійно. Особливо у сфері, де довіра і прозорість — на першому місці.
Проте штучний інтелект активно полегшує процеси відповідності. Наприклад, залежно від налаштувань, системи штучного інтелекту можуть позначати підозрілі транзакції або навіть тимчасово блокувати їх, запитуючи додаткову перевірку. Не потрібно, щоб люди вручну переглядали кожну деталь, якщо щось справді виглядає дивним. І з розвитком систем вони й надалі зменшуватимуть потребу у ручній роботі, дозволяючи командам зосередитися на більш тонких завданнях, що справді вимагають людського втручання.
Я вважаю, що з’явиться гібридна модель, коли фахівці з відповідності все більше опануватимуть навички роботи з інструментами штучного інтелекту. Вони будуть впроваджувати та підтримувати системи штучного інтелекту, а сама штучна інтелектуальна система спростить їхню роботу, аналізуючи складні дані та надаючи рекомендації. Остаточне рішення, однак, залишатиметься за людьми.
3. Коли працюєте з штучним інтелектом у чутливих сферах, таких як фінансова відповідність, як особисто ви підходите до питання збереження довіри та відповідальності у процесі прийняття рішень?
Звичайно. Як я вже згадував, довіра у роботі з штучним інтелектом — це ключовий аспект.
Тому ми зробили наші системи штучного інтелекту максимально прозорими. Вони не працюють як «чорна скринька» — кожна рекомендація базується на відслідковуваних правилах і даних. Ми зберігаємо повний аудитний слід кожного рішення, щоб його можна було пояснити. Це вже довело свою цінність у спілкуванні з регуляторами.
Остаточне рішення завжди приймає відповідальний співробітник з відповідності. Штучний інтелект просто пропонує обґрунтовану рекомендацію, яку людина може легко перевірити і вирішити — схвалити чи відхилити.
4. Ваш досвід понад 10 років. Як змінювалося ваше ставлення до автоматизації та людського контролю протягом кар’єри, особливо зараз, коли штучний інтелект стає дедалі автономнішим?
Безумовно. Говорячи ширше про стан впровадження штучного інтелекту, чим далі просувається ця технологія, тим більше ми поступово дозволяємо їй автономії — за умови, що вона пройде ретельне тестування і доведе свою надійність.
Але ще більше змінюється роль людського фахівця у цій системі. Замість мікроменеджменту кожної справи, відповідальні за відповідність тепер все більше виконують роль стратегічних наглядачів. Вони можуть швидко переглядати цілі групи схожих випадків, оцінювати роботу системи і коригувати моделі на основі результатів.
Інакше кажучи, фактична роль фахівця з відповідності переходить від ручної роботи до управління системами штучного інтелекту, які роблять цю роботу за них.
5. Робота з штучним інтелектом у сферах, що вимагають високої відповідальності, таких як запобігання шахрайству, ставить перед вами складні етичні питання. Як ви особисто розробили рамки для відповідального проектування та впровадження AI-рішень?
Ми побудували наш підхід навколо двох ключових ідей: прозорого контролю та принципів відповідального штучного інтелекту. Кожна модель, яку ми використовуємо, має призначену відповідальну особу. Оцінки ризиків, перевірки продуктивності та аудити — все це робиться регулярно.
Ми також гарантуємо, що наші системи є аудитуємими. Якщо алгоритм приймає рішення, цей процес можна переглянути і підтвердити. Ця прозорість — основа нашої відданості відповідальному розвитку штучного інтелекту.
6. У вашій кар’єрі який найскладніший професійний урок ви засвоїли щодо обмежень або ризиків надмірної залежності від автоматизації у критичних сферах, таких як запобігання шахрайству?
Один із уроків — потрібно пам’ятати, що навіть добре натреновані моделі можуть «галюцинувати» — робити помилки у тонких, але серйозних випадках.
Штучний інтелект може пропустити складні схеми шахрайства або спрацювати на багато хибних спрацьовувань. Саме тому поєднання AI з людською експертизою так важливе — люди мають гнучке судження і краще оцінюють етичні питання та загальний контекст, ніж штучний інтелект.
Баланс між ними забезпечує кращі, більш надійні результати. AI допомагає обробляти великий обсяг завдань і зменшувати їхню складність, а люди підтримують потрібний рівень точності та довіри.
7. Які особисті принципи або звички ви порадили б молодим фахівцям, що входять у сферу відповідності, управління ризиками або розробки AI сьогодні, щоб успішно адаптуватися у такій швидкозмінній галузі?
Перш за все: ніколи не припиняйте навчання. Технологічний прогрес не має «пауза» — потрібно йти в ногу або залишитися позаду. Тут немає компромісів.
По-друге, думайте широко. З розвитком AI межі між ролями стираються — технології, фінанси і регулювання стають єдиним полем. Вірю, що широкий набір навичок і відкритий розум стануть визначальними рисами майбутніх професіоналів.
По-третє — і це природне продовження попередніх двох — будьте гнучкими. Зміни постійні, і здатність швидко адаптуватися стане вашим великим плюсом.
І нарешті, розвивайте навички комунікації та вміння працювати в команді. Як ми вже говорили, відповідність — це перетин бізнесу, технологій і права. Вміння швидко переключатися між цими сферами і спілкуватися з людьми з різних галузей — цінний навик.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Штучний інтелект у відповідності — це не чорна скринька, а випробування відповідальності: інтерв’ю з Романом Елошвілі
Роман Елошвілі — засновник ComplyControl, стартапу з автоматизованого контролю відповідності та виявлення шахрайства для фінансових установ, що базується на штучному інтелекті.
Дізнайтеся про головні новини та події у фінтеху!
Підписуйтеся на розсилку FinTech Weekly
Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній
Що насправді тестує штучний інтелект у сфері відповідності: технології чи нас самих?
У фінансових послугах відповідність вже давно перестала бути просто функцією. Це активна точка напруги — де стикаються регулювання, ризики та операції. З впровадженням технологій штучного інтелекту у цю сферу постійно виникає одне питання: наскільки ми справді можемо автоматизувати процеси, і хто несе відповідальність, коли щось йде не так?
Привабливість штучного інтелекту у виявленні шахрайства та забезпеченні відповідності легко зрозуміти. Фінансові установи стикаються з зростаючими очікуваннями обробляти величезні обсяги даних, реагувати на змінювані загрози та дотримуватися нових правил — при цьому не жертвуючи швидкістю або точністю. Автоматизація, особливо за допомогою машинного навчання, пропонує спосіб зменшити операційне навантаження. Але вона також викликає глибші питання щодо управління, пояснюваності та контролю.
Ці напруги не є теоретичними. Вони розгортаються у реальному часі, коли фінансові компанії впроваджують моделі штучного інтелекту у ролі, традиційно виконуваній людськими аналітиками. За лаштунками з’являються нові ризики: хибні спрацьовування, сліпі зони аудиту та алгоритмічні рішення, які залишаються непрозорими для користувачів і регуляторів.
Одночасно, фахівців з відповідності просять змінити ролі. Замість ручної перевірки кожної транзакції вони тепер контролюють інструменти, що це роблять. Ця переорієнтація — від виконавця до оцінювача — вимагає не лише нових технічних навичок, а й більш глибокого почуття етичної та процедурної відповідальності. Штучний інтелект може масштабувати аналіз даних. Він може виявляти невідповідності. Але він не здатен повністю пояснити намір, інтерпретувати контекст або взяти на себе провину.
Розуміння цих обмежень є критичним. І мало хто краще за Романа Елошвілі, засновника британської компанії з технологій відповідності ComplyControl, здатен їх досліджувати. Його робота знаходиться саме на перетині ризиків, автоматизації та контролю — там, де алгоритмічна ефективність зустрічається з регуляторним наглядом.
З більш ніж десятирічним досвідом у цій галузі, Роман бачив на власні очі, як змінюються команди відповідності і як штучний інтелект трансформує їхні робочі процеси та обов’язки. Він стверджує, що обіцянка штучного інтелекту полягає не в усуненні людських ролей, а у їхньому переосмисленні — у тому, щоб чіткіше визначити, що мають обробляти машини, а що залишати за людьми.
Ця зміна вимагає більше, ніж технічних оновлень. Вона потребує культурної переорієнтації щодо відповідальності. Прозорі системи, аудитуємі процеси і чітко визначена людська відповідальність — вже не просто функції, а мінімальні стандарти. Коли штучний інтелект впроваджується у критичну інфраструктуру, він не просто вирішує проблеми. Він вводить нову категорію рішень, які вимагають активного стратегічного управління.
У цій розмові для FinTech Weekly Роман пропонує реалістичний погляд на те, що потрібно для відповідального впровадження штучного інтелекту у сфері відповідності та запобігання шахрайству. Його точка зору не подає автоматизацію як неминучість, а як вибір — такий, що вимагає постійного людського судження, операційної ясності та готовності ставити складні питання про те, де справді знаходиться довіра.
Ми раді поділитися його думками у час, коли багато у фінтеху запитують не про те, чи впроваджувати штучний інтелект, а як зробити це так, щоб не втратити стандарти, що забезпечили роботу фінансових систем спочатку.
1. Ви побудували кар’єру на перетині відповідності та технологій. Чи можете пригадати момент, коли зрозуміли, що штучний інтелект може кардинально змінити підходи до управління ризиками?
Я б не сказав, що це був один конкретний момент, що все змінив. Скоріше, це був процес, що розтягнувся у часі. Я багато працював із відомими європейськими банками, і постійно помічав, що багато з них значно відстають у цифрових банківських рішеннях. Контраст був особливо помітним у порівнянні з більш просунутими фінтех-центрами.
Кілька років тому, коли тема розвитку штучного інтелекту знову почала активно обговорюватися, я зацікавився цим і почав досліджувати. Вивчаючи технології та їхню роботу, я зрозумів, що штучний інтелект має потенціал кардинально змінити підходи банків до відповідності, зробивши їх більш сучасними та гнучкими, у порівнянні з традиційними методами.
Саме це й спонукало мене заснувати свою компанію у 2023 році. Складність управління відповідністю та ризиками лише зростає з кожним роком. Зіткнувшись із цим, наше завдання — пропонувати рішення на базі штучного інтелекту фінансовим компаніям і допомагати їм ефективніше справлятися з цими викликами.
2. З вашої професійної точки зору, як змінилася роль людських фахівців із впровадженням більш просунутих інструментів штучного інтелекту у сфері відповідності та виявлення шахрайства?
Перш за все, хочу сказати одне. Існує поширена тривога, що штучний інтелект замінить людську працю. І щодо фахівців з відповідності та ризиків моя відповідь — ні, принаймні, не найближчим часом.
Хоча штучний інтелект уже трансформує нашу галузь, він ще далекий від ідеалу. Тому людська участь залишається необхідною. Регулювання змінюються постійно, і хтось має нести відповідальність, коли системи дають збій або роблять помилки. На нинішньому рівні розвитку штучний інтелект ще не здатен чітко пояснити свої рішення, тому він не готовий працювати самостійно. Особливо у сфері, де довіра і прозорість — на першому місці.
Проте штучний інтелект активно полегшує процеси відповідності. Наприклад, залежно від налаштувань, системи штучного інтелекту можуть позначати підозрілі транзакції або навіть тимчасово блокувати їх, запитуючи додаткову перевірку. Не потрібно, щоб люди вручну переглядали кожну деталь, якщо щось справді виглядає дивним. І з розвитком систем вони й надалі зменшуватимуть потребу у ручній роботі, дозволяючи командам зосередитися на більш тонких завданнях, що справді вимагають людського втручання.
Я вважаю, що з’явиться гібридна модель, коли фахівці з відповідності все більше опануватимуть навички роботи з інструментами штучного інтелекту. Вони будуть впроваджувати та підтримувати системи штучного інтелекту, а сама штучна інтелектуальна система спростить їхню роботу, аналізуючи складні дані та надаючи рекомендації. Остаточне рішення, однак, залишатиметься за людьми.
3. Коли працюєте з штучним інтелектом у чутливих сферах, таких як фінансова відповідність, як особисто ви підходите до питання збереження довіри та відповідальності у процесі прийняття рішень?
Звичайно. Як я вже згадував, довіра у роботі з штучним інтелектом — це ключовий аспект.
Тому ми зробили наші системи штучного інтелекту максимально прозорими. Вони не працюють як «чорна скринька» — кожна рекомендація базується на відслідковуваних правилах і даних. Ми зберігаємо повний аудитний слід кожного рішення, щоб його можна було пояснити. Це вже довело свою цінність у спілкуванні з регуляторами.
Остаточне рішення завжди приймає відповідальний співробітник з відповідності. Штучний інтелект просто пропонує обґрунтовану рекомендацію, яку людина може легко перевірити і вирішити — схвалити чи відхилити.
4. Ваш досвід понад 10 років. Як змінювалося ваше ставлення до автоматизації та людського контролю протягом кар’єри, особливо зараз, коли штучний інтелект стає дедалі автономнішим?
Безумовно. Говорячи ширше про стан впровадження штучного інтелекту, чим далі просувається ця технологія, тим більше ми поступово дозволяємо їй автономії — за умови, що вона пройде ретельне тестування і доведе свою надійність.
Але ще більше змінюється роль людського фахівця у цій системі. Замість мікроменеджменту кожної справи, відповідальні за відповідність тепер все більше виконують роль стратегічних наглядачів. Вони можуть швидко переглядати цілі групи схожих випадків, оцінювати роботу системи і коригувати моделі на основі результатів.
Інакше кажучи, фактична роль фахівця з відповідності переходить від ручної роботи до управління системами штучного інтелекту, які роблять цю роботу за них.
5. Робота з штучним інтелектом у сферах, що вимагають високої відповідальності, таких як запобігання шахрайству, ставить перед вами складні етичні питання. Як ви особисто розробили рамки для відповідального проектування та впровадження AI-рішень?
Ми побудували наш підхід навколо двох ключових ідей: прозорого контролю та принципів відповідального штучного інтелекту. Кожна модель, яку ми використовуємо, має призначену відповідальну особу. Оцінки ризиків, перевірки продуктивності та аудити — все це робиться регулярно.
Ми також гарантуємо, що наші системи є аудитуємими. Якщо алгоритм приймає рішення, цей процес можна переглянути і підтвердити. Ця прозорість — основа нашої відданості відповідальному розвитку штучного інтелекту.
6. У вашій кар’єрі який найскладніший професійний урок ви засвоїли щодо обмежень або ризиків надмірної залежності від автоматизації у критичних сферах, таких як запобігання шахрайству?
Один із уроків — потрібно пам’ятати, що навіть добре натреновані моделі можуть «галюцинувати» — робити помилки у тонких, але серйозних випадках.
Штучний інтелект може пропустити складні схеми шахрайства або спрацювати на багато хибних спрацьовувань. Саме тому поєднання AI з людською експертизою так важливе — люди мають гнучке судження і краще оцінюють етичні питання та загальний контекст, ніж штучний інтелект.
Баланс між ними забезпечує кращі, більш надійні результати. AI допомагає обробляти великий обсяг завдань і зменшувати їхню складність, а люди підтримують потрібний рівень точності та довіри.
7. Які особисті принципи або звички ви порадили б молодим фахівцям, що входять у сферу відповідності, управління ризиками або розробки AI сьогодні, щоб успішно адаптуватися у такій швидкозмінній галузі?
Перш за все: ніколи не припиняйте навчання. Технологічний прогрес не має «пауза» — потрібно йти в ногу або залишитися позаду. Тут немає компромісів.
По-друге, думайте широко. З розвитком AI межі між ролями стираються — технології, фінанси і регулювання стають єдиним полем. Вірю, що широкий набір навичок і відкритий розум стануть визначальними рисами майбутніх професіоналів.
По-третє — і це природне продовження попередніх двох — будьте гнучкими. Зміни постійні, і здатність швидко адаптуватися стане вашим великим плюсом.
І нарешті, розвивайте навички комунікації та вміння працювати в команді. Як ми вже говорили, відповідність — це перетин бізнесу, технологій і права. Вміння швидко переключатися між цими сферами і спілкуватися з людьми з різних галузей — цінний навик.