
Як захистити IT-бізнес від фейкових кандидатів
Ви знайшли Senior Backend Engineer з бездоганним CV. У нього 8 років досвіду, зокрема в двох відомих FinTech-стартапах. На технічному інтервʼю кандидат впевнено розбирає кейс із побудови highload API, пояснює вибір технологій і пропонує чітку логіку розподілу сервісів.
Ви даєте офер та очікуєте, що спеціаліст швидко почне закривати критичні задачі… проте три тижні потому в роботі починають зʼявлятися перші червоні прапорці: банальні помилки в коді та нерозуміння базових архітектурних патернів, підкріплені постійними «технічними проблемами» з камерою. Пізніше виявляється, що фахівець, якого ви найняли, не може написати навіть простий unit-тест. Він некваліфікований, а його «ідеальне» інтервʼю було проведено проксі-фахівцем з іншої країни.
Цей кейс — нова жорстка реальність. Діпфейки та AI-аватари дозволяють маскувати особу на відеодзвінках, а digital-платформи дають шахраям змогу легко знаходити CV реальних людей. Розповіли, як розпізнати фейкового кандидата і, головне, як зробити рекрутинг-процес не просто захищеним, а стійким до обману на рівні системи.
Як з‘явився тренд на фейкових кандидатів
Deepfake-аватари сьогодні здатні імітувати обличчя й голос, а AI-генератори текстів — створювати бездоганні резюме за кілька хвилин (або знаходити такі CV, створені реальними кандидатами). Феномен фейкових кандидатів виріс із поєднання кількох факторів:
Глобалізація + віддалена робота
Якщо раніше кандидат приходив до офісу, спілкувався з кількома менеджерами, міг потиснути руку і залишити «фізичне враження», сьогодні вся взаємодія звелася до кількох кліків у Zoom. Онлайн-співбесіди, які стали нормою, відкрили простір для маніпуляцій. Камера вже не гарантує автентичності: фон можна змінити, обличчя — підкоригувати, голос — змоделювати.
За даними HireRight 2025 Global Benchmark Report, 9 із 10 компаній у Європі, на Близькому Сході та в Африці (EMEA) зіштовхнулися з розбіжностями в даних кандидатів перед офіційним працевлаштуванням. Найбільше невідповідностей виявили в розділах про попередній досвід роботи (64%) та освіту (47%). А понад 22% компаній виявили у кандидатів приховані судимості.
Стрімкий розвиток AI та діпфейків
Ще пʼять років тому створити правдоподібне відео з зображенням іншої людини було технічно складною задачею. Сьогодні це питання кількох хвилин і безкоштовного софту. AI-інструменти дозволяють імітувати фото, голос, міміку, акцент і навіть реакції на емоції співрозмовника.
Комерціалізація шахрайства
На сірому ринку вже діють платформи з fake staffing, де можна замовити кандидата на «прокат», який пройде технічне інтервʼю замість вас.
4 типові схеми фейкових кандидатів в IT
Фейкові кандидати здаються чимось абстрактним, допоки компанія не стикається з ними на власному досвіді. Нижче зібрані приклади, які показують, наскільки винахідливо шахраї підлаштовуються під сучасні методи рекрутингу.
1. «Senior Developer», який насправді зовсім не Senior
Уявіть, що ваш ідеальний кандидат, який вразив на технічному інтервʼю, після найму не може написати й рядка коду. Це класичний приклад шахрайства з використанням проксі-спеціаліста, коли співбесіду за кандидата проходить інша людина.
Такі схеми створюються для отримання доступу до високооплачуваних проєктів без відповідних навичок. Компанія витрачає час і ресурси на найм, а в результаті отримує співробітника, який не приносить жодної користі та потребує негайної заміни.
2. Deepfake на співбесіді
У 2023 на заході Microsoft Ignite компанія представила інструмент, здатний створювати фотореалістичних аватарів і синтезувати голоси, що імітують мову конкретної особи. Ця технологія дозволяє генерувати відео, де аватар говорить текст, написаний за сценарієм, що може включати висловлювання, яких людина не вимовляла. Хоча Microsoft не повідомила про конкретні випадки використання цієї технології для проведення співбесід, можливість створення таких аватарів підвищує ризик їхнього використання в процесі найму.
Так під час співбесіди на екрані може зʼявитися реалістичне обличчя, а голос і міміка будуть синхронізовані з мовленням. Такі аватари допомагають «відправити» на інтервʼю когось іншого або приховати власну особу.
3. Кандидат «на прокат»
Компанія або група посередників створює десятки профілів нібито досвідчених інженерів, проходить скринінг і продає «спеціаліста» компанії-клієнту. Згодом на роботу виходить хтось інший.
Подібні агенції беруть фіксовану комісію за кожен профіль, стягують додаткову плату за підготовку й проходження скринінгу або інтервʼю, продають доступ до великої бази готових резюме за підпискою і навіть отримують відсоток від першої зарплати чи контракту — інколи перепродаючи той самий профіль кільком людям одночасно.
4. AI-суфлер
Це найновіша зброя в арсеналі фейкових кандидатів, яка стала можливою завдяки великим мовним моделям (LLM). Фахівці використовують спеціалізовані AI-інструменти (Interview Copilots), які працюють у режимі реального часу.
Програма «слухає» запитання, поставлені інтервʼюером під час дзвінка, миттєво обробляє його за допомогою AI та виводить готову відповідь на екран. Кандидату залишається лише зачитати текст (часто з екрану телефону, розташованого поруч із камерою). Це особливо поширена тактика на технічних співбесідах, де AI може генерувати глибокі відповіді на алгоритмічні питання.

«У мене було кілька випадків спілкування з фейковими кандидатами. Зокрема кейс, коли кандидат підключився на співбесіду і використав AI-інструмент під час відеодзвінка.
Найчастіше таких спеціалістів можна розпізнати за такими ознаками:
- Вони надшвидко пишуть в Telegram або інші месенджери.
- Кандидати з Азії часто користуються перекладачем, що помітно за помилками в повідомленнях. Якщо спілкуватися українською та додати трохи сленгу, їхня “неавтентичність” виявляється ще швидше».

«У певний період у мене була “навала” кандидатів на позицію Senior С++ розробника. Це були азійці, котрі видавали себе за поляків (найм вівся саме в цій локації). У середині літа за кілька тижнів я мала близько п’яти дзвінків із такими фахівцями. Підозрювати фейковість уже почала з отримання резюме — там були вказані компанії з досить дивними назвами, не притаманними для Польщі або Європи загалом. Імена цих розробників були теж не надто “польськими”.
Фінальне підтвердження я отримала на дзвінку з тестування англійської. Дехто використовував АІ-ефекти, які “європеїзували” їх зовнішність і голос. Я попросила їх сказати щось польською. Ніхто не зміг, звісно 🙂
Потім я прочитала статтю, що це була скам-атака північнокорейських псевдорозробників на європейські та американські компанії».
Чи варто переживати: ризики для компанії, якщо найняти «фейка»
Поговорімо, чому невиявлений фейковий кандидат може завдати компанії не лише фінансових втрат, а навіть більшої шкоди.
Витік інформації та репутаційні ризики
Найбільша загроза — коли шахрай отримує доступ до внутрішніх ресурсів під виглядом співробітника. Це відкриває шлях до:
- витоку комерційної та конфіденційної інформації;
- ознайомлення з контрактами, фінансовими або юридичними документами;
- вивчення внутрішніх процесів, стандартів і робочих протоколів;
- планування шахрайських операцій, крадіжки інтелектуальної власності або недобросовісної конкуренції.
Такі ризики особливо високі в міжнародних та ремоут-командах, де доступ до систем автоматично надається після підписання контракту й NDA. У квітні 2025 року сотні спеціально підготовлених хакерів з Північної Кореї «пробралися» в американські компанії — навіть до тих, що входять у Fortune 500, — видаючи себе за розробників.
Американські спецслужби оцінюють їхні «заробітки» десятками мільйонів доларів, які, ймовірно, спрямовувалися на санкціоновані програми озброєнь Північної Кореї. Але гроші — не єдина мета: частина зловмисників намагалася отримати доступ до конфіденційних кодових баз та систем клієнтів, щоб викрасти інтелектуальну власність і комерційні таємниці, інші — збирали дані споживачів для майбутніх атак.
Для маскування вони видавали себе за фрилансерів із Південної Кореї, Японії чи Латинської Америки, користуючись підробленими профілями LinkedIn, викраденими або позиченими документами та AI-згенерованими резюме. А ще вони залучали громадян США, які відкривали банківські рахунки для отримання зарплати й переводили гроші за кордон.
Додаткові наслідки
Несвоєчасне виявлення фейкового кандидата може призвести до зриву дедлайнів проєктів і зниження ефективності команд: фейковий співробітник часто не володіє потрібними навичками, що призводить до затримок, помилок у коді чи документації, а колеги змушені витрачати час на виправлення.
З іншого боку, це несе юридичні та фінансові ризики: якщо фейковий кандидат працює з конфіденційними даними, клієнтськими базами чи у сфері, що підлягає регулюванню (наприклад, фінанси, healthcare чи енергетика), компанія ризикує штрафами, судовими позовами або санкціями за порушення норм безпеки та комплаєнсу.
Як не потрапити на фейка: гайд для рекрутерів
Щоб мінімізувати ризики, рекрутерам і hiring-менеджерам важливо поєднувати технічний чек, аналіз поведінки на співбесіді перевірку документів та інші методи оцінки кандидатів. Цей чек-лист пропонує конкретні кроки, які допоможуть швидко відсіяти ненадійні профілі:
✅ Перевірте відео в реальному часі. Проведіть коротку співбесіду з камерою, де кандидат має продемонструвати свої скіли наживо. Можна дати невеликий фрагмент коду, SQL-запит, логічну задачу чи кейс. Або попросити кандидата написати або відредагувати код/документ/схему в реальному часі.
Tip: AI-аватар не зможе впевнено реагувати на спонтанні уточнення— наприклад: «Поясніть, чому ви обрали саме цей підхід?», «Як би ви оптимізували цей код, якби змінилися вхідні дані?». Якщо відповіді звучать занадто абстрактно — без прикладів чи деталей — це може бути ознакою підготовленого сценарію чи підказок у навушнику.
Або ж включіть елемент імпровізації: «Уявімо, що цей API повертає помилку — що б ви зробили?», «Як би ви пояснили це рішення trainee?», «Що б ви змінили, якби у вас було лише дві години до релізу?» Якщо ж замість природної реакції ви бачите затримку, нерелевантну відповідь або спробу перевести тему — це може бути сигналом, що перед вами не зовсім той, за кого себе видає кандидат.
✅ Перевірте аудіо/відео на аномалії. Deepfake-технології стають дедалі реалістичнішими, але уважне око (і вухо) все ще може їх виявити. Якщо обличчя кандидата виглядає «пластиковим», губи злегка відстають від звуку або змінюють форму неприродно — імовірно, це результат обробки відео. Тіні на обличчі не збігаються з фоном або не змінюються, коли кандидат рухається? Типова ознака синтетичного зображення. У deepfake-відео також часто «збивається» погляд: людина рідше кліпає або дивиться вбік, навіть коли говорить.
Також прислухайтесь до тремтіння голосу, неприродних пауз чи дивної компресії звуку — deepfake-алгоритми часто мають проблеми зі сталим тембром. Якщо виникли підозри, спробуйте запросити кандидата виконати дію в реальному часі — наприклад, нахилитися до камери, змінити освітлення чи показати предмет поруч. Це простий і швидкий спосіб виявити AI-імітацію.
✅ Звертайте увагу на часові пояси. Часто фейкові кандидати заявляють, що живуть у Європі чи США, але відповідають на повідомлення лише за азійським графіком. Це дрібниця, але дуже показова.
✅ Перевіряйте карʼєрні траєкторії. Звертайте увагу на часті зміни роботи: багато коротких контрактів, різкі переходи між компаніями, повторювані ролі. Додатково перевіряйте узгодженість дат і описів посад — розбіжності можуть сигналізувати про приховані прогалини.
Аналізуйте причини звільнень: якщо вони часто формулюються загально або незрозуміло, це може бути ознакою фейкового досвіду. Job hopping далеко не завжди є ознакою шахрайства, але в комбінації з іншими червоними прапорцями варто уважніше перевіряти кандидата.
✅ Спробуйте інший формат комунікації. Якщо цифри кажуть, що все добре, а відчуття інше — змініть формат спілкування. Наприклад, можна переключитися з відео на аудіодзвінок без камери, якщо підозрюєте deepfake або проксі-кандидата. AI-аватари часто «зависають» без відео, а справжня людина — навпаки, розслабляється і говорить природніше.
Якщо є така можливість, запросіть кандидата на коротку зустріч в офісі чи спільному коворкінгу. Або ж додайте ще одного технічного спеціаліста чи HR-партнера. Кілька пар очей бачать більше: один може сфокусуватися на технічних деталях, інший — на поведінці, логіці й емоційних реакціях.
«Під час аналізу резюме я відразу звертаю увагу на такі red flags:
- Фото виглядає як стокове або AI-згенероване (має занадто рівні текстури та яскраві кольори), або ж взагалі немає фото.
- При перевірці соцмереж кандидатів виявляється, що немає взагалі ніякої активності (відповіді на пости, коментарі тощо).
- Можуть бути дивні дати досвіду: наприклад, одночасно працював у кількох місцях на фултаймі.
- Резюме надто ідеальне: вказані лише топові технології, але відсутній опис проєктів.
- Занадто загальні описи ролей: немає конкретних завдань, досягнень, цифр чи деталей.
- Відсутні відгуки на сторінці від попередніх колег або керівників.
- Сертифікати, які складно перевірити (або вони не відповідають рівню кандидата).
- Технології та інструменти вказані хаотично, вказані найбільш топові технології і взагалі ті, що не поєднуються між собою.
- Також варто звертати увагу на розділ освіти: наприклад, зазначення Національного університету Сінгапуру чи університетів, які не існують.
Як варіант, можна блокувати профілі фейків у LinkedIn, Telegram та інших месенджерах, щоб уникнути повторних контактів із такими акаунтами. Також можна подавати скарги на таких кандидатів у соцмережах і на платформах, щоб такі профілі видаляли або заморожували».
Інна Поремська, Technical Recruiter в ITExpertФейкові кандидати зʼявилися не тому, що ринок «зіпсувався», а тому, що digital-процеси відкрили нові шпарини. Коли рекрутинг переходить у відеоінтервʼю, онлайн-тести й автоматизовані перевірки, зʼявляється простір і для цифрового шахрайства. І саме рекрутерам доведеться адаптуватися першими: навчитися розпізнавати фейки та постійно покращувати методи перевірки.
Наскільки корисним був цей пост?
Click on a star to rate it!
Середній рейтинг 4.9 / 5. Кількість голосів: 30
Оцінок поки немає! Будьте першим, хто оцінить цю публікацію.


