Завдяки своїй обізнаності з технологічними застосуваннями, особливо зі штучним інтелектом, покоління Z використовує ШІ для всього: від навчання в школі до влаштування на роботу. – Фото: LinkedIn
Однак один експерт з питань кар'єри визначив найбільшу проблему цієї тенденції: ідентичні резюме, створені повністю штучним інтелектом.
Помилки у застосуванні ШІ під час подання заявки на роботу
Шошана Девіс, експертка з питань кар'єри та засновниця консалтингової фірми з питань кар'єри Fairy Job Mother, розповіла в інтерв'ю CNBC Make It , що покоління Z стало занадто залежним від інструментів штучного інтелекту, таких як ChatGPT, для подання заявок на роботу.
«Я спілкуюся з компаніями та рекрутерами, які наймають від 10 до 1000 представників покоління Z на рік. Одна з головних проблем, яку я бачу зараз, — це неправильне та неефективне використання штучного інтелекту, зокрема ChatGPT», — каже вона.
«Рекрутери отримують сотні супровідних листів, які дослівно ідентичні» або містять однакові відповіді, пояснює Девіс. Вони підозрюють, що кандидати використовують ChatGPT для створення своїх резюме.
Фактично, 45% шукачів роботи використовували штучний інтелект для створення, оновлення або покращення свого резюме, згідно з опитуванням, проведеним Canva та опублікованим у січні 2024 року, в якому взяли участь 5000 менеджерів з найму та 5000 шукачів роботи з Великої Британії, США, Індії, Німеччини, Іспанії, Франції, Мексики та Бразилії.
Згідно з лютневим опитуванням Grammarly, проведеним серед 1002 співробітників та 253 бізнес-лідерів, покоління Z, схоже, є тим поколінням, яке найбільше покладається на штучний інтелект. 61% представників покоління Z не можуть уявити виконання робочих завдань без використання штучного інтелекту, що є найвищим показником серед усіх поколінь.
Хоча, безумовно, існує потреба «впровадити технології та штучний інтелект», копіювання відповідей з ChatGPT може зашкодити шансам молодих людей отримати роботу, сказав Девіс.
Опитування Resume Genius, проведене серед 625 менеджерів з найму, показало, що понад половині респондентів не подобаються резюме, згенеровані за допомогою штучного інтелекту. Вони сприймали це як тривожний сигнал і рідше обирали їх.
100 однакових відповідей
Одна з причин, чому копіювання з ChatGPT вважається неефективним використанням штучного інтелекту, полягає в тому, що чат-боти не завжди надають достовірну інформацію.
Початкова проблема з ChatGPT полягала в тому, що його база знань була обмежена даними, опублікованими до вересня 2021 року. Однак, власник OpenAI, оголосив на X, що до вересня 2023 року цю проблему було вирішено.
ChatGPT не підключений до інтернету та іноді може надавати неточні відповіді. «Платформа має обмежені знання про світ та події після 2021 року, а також іноді може надавати шкідливі поради чи упереджений контент», – пояснила вона.
Девіс розповідає нещодавню історію рекрутера, з яким вона працювала. Він шукав кандидата на посаду бренд-маркетолога та поставив у резюме запитання про улюблений запуск фітнес-продукту кандидата за останній рік.
«Вони сказали, що отримали близько 100 однакових відповідей на тему «мій улюблений запуск — Peloton», який, на думку рекрутера, був роботою ChatGPT», — розповів Девіс.
Вона вважає, що молоді люди повинні навчитися правильно користуватися ChatGPT, а не просто копіювати відповіді. «Платформу слід використовувати як інструмент, а не як заміну», – наголосила Девіс.
Мішель Райсдорф, регіональний директор рекрутингової фірми Robert Half, поділилася схожою думкою. Вона сказала, що штучний інтелект чудово підходить для «перевірки та покращення написаного, але це не єдиний фактор у створенні ідеального резюме».
«Роботодавці знатимуть, якщо ви не вкажете конкретні деталі про свої попередні місця роботи або якщо ви пишете своє резюме особистим, людським голосом», – додає Райсдорф.
Девіс каже, що використовує ChatGPT для впорядкування документів, мозкового штурму ідей та створення чернеток, «ніколи не просто вводячи запитання, а потім копіюючи відповідь».
Джерело: https://tuoitre.vn/gen-z-lam-dung-ai-thu-xin-viec-giong-nhau-nhu-duc-20240509143936826.htm
Коментар (0)