Vietnam.vn - Nền tảng quảng bá Việt Nam

Ризики безпеки під час використання ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


Найбільший банк Америки, JPMorgan Chase, Amazon та технологічна компанія Accenture, обмежили використання ChatGPT своїми співробітниками через проблеми безпеки даних.

За даними CNN, занепокоєння цих компаній цілком обґрунтовані. 20 березня чат-бот OpenAI мав помилку, яка розкрила дані користувачів. Хоча помилку було швидко виправлено, компанія повідомила, що інцидент торкнувся 1,2% користувачів ChatGPT Plus. Витік інформації включав повні імена, адреси електронної пошти, платіжні адреси, останні чотири цифри номерів кредитних карток та терміни дії карток.

31 березня італійський орган із захисту даних (Garante) тимчасово заборонив ChatGPT, посилаючись на занепокоєння щодо конфіденційності після того, як OpenAI розкрив уразливість.

Марк МакКрірі, співголова відділу безпеки даних та конфіденційності юридичної фірми Fox Rothschild LLP, розповів CNN, що проблеми безпеки, пов'язані з ChatGPT, не перебільшені. Він порівняв чат-бота на базі штучного інтелекту з «чорною скринькою».

ChatGPT був запущений OpenAI у листопаді 2022 року та швидко привернув увагу завдяки своїй здатності писати есе, складати оповідання чи тексти пісень, видаючи їм підказки. Технологічні гіганти, такі як Google та Microsoft, також запустили інструменти штучного інтелекту, які працюють аналогічно, використовуючи великі мовні моделі, навчені на величезних онлайн-сховищах даних.

chatgpt.jpg

Після кроку Італії Німеччина також розглядає можливість заборони ChatGPT

Коли користувачі вводять інформацію в ці інструменти, вони не знають, як вона буде використана, додав пан МакКрі. Це викликає занепокоєння у компаній, оскільки все більше співробітників використовують інструменти для написання робочих електронних листів або ведення нотаток для зустрічей, що призводить до більшого ризику розкриття комерційної таємниці.

Стів Міллс, директор з етики штучного інтелекту в Boston Consulting Group (BCG), заявив, що компанії стурбовані тим, що співробітники випадково розголошують конфіденційну інформацію. Якщо дані, які вводять люди, використовуються для навчання цього інструменту штучного інтелекту, вони передають контроль над даними комусь іншому.

Згідно з політикою конфіденційності OpenAI, компанія може збирати всю особисту інформацію та дані користувачів сервісів для покращення своїх моделей штучного інтелекту. Вони можуть використовувати цю інформацію для покращення або аналізу своїх сервісів, проведення досліджень, спілкування з користувачами та розробки нових програм і сервісів.

У політиці конфіденційності зазначено, що OpenAI може надавати персональну інформацію третім сторонам без повідомлення користувачів, окрім випадків, передбачених законом. OpenAI також має власний документ «Умови надання послуг», але компанія покладає значну відповідальність на користувачів щодо вжиття відповідних заходів під час взаємодії з інструментами штучного інтелекту.

Власники ChatGPT опублікували у своєму блозі інформацію про свій підхід до безпечного штучного інтелекту. Компанія наголошує, що не використовує дані для продажу послуг, реклами чи створення профілів користувачів. Натомість OpenAI використовує дані, щоб зробити свої моделі кориснішими. Наприклад, розмови користувачів будуть використовуватися для навчання ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

Політика конфіденційності ChatGPT вважається досить розпливчастою.

Google, компанія, що стоїть за Bard AI, має додаткові положення щодо конфіденційності для своїх користувачів зі штучним інтелектом. Компанія вибере невелику частину розмови та використовуватиме автоматизовані інструменти для видалення особистої інформації, що допоможе покращити Bard, одночасно захищаючи конфіденційність користувачів.

Зразки розмов будуть переглянуті тренерами-людьми та зберігатимуться до трьох років окремо від облікового запису Google користувача. Google також нагадує користувачам не включати особисту інформацію про себе чи інших у розмови на Bard AI. Технологічний гігант наголошує, що ці розмови не будуть використовуватися в рекламних цілях, і оголосить про зміни в майбутньому.

Bard AI дозволяє користувачам відмовитися від збереження розмов у своїх облікових записах Google, а також переглядати або видаляти розмови за посиланням. Крім того, компанія має запобіжні заходи, розроблені для того, щоб Bard не включав особисту інформацію у відповіді.

Стів Міллс каже, що іноді користувачі та розробники виявляють ризики безпеки, приховані в нових технологіях, лише коли вже надто пізно. Наприклад, функції автозаповнення можуть випадково розкрити номери соціального страхування користувачів.

Користувачі не повинні розміщувати в цих інструментах нічого, чим вони не хотіли б поділитися з іншими, сказав пан Міллс.



Посилання на джерело

Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Збереження духу Свята середини осені через кольори фігурок
Відкрийте для себе єдине село у В'єтнамі, яке входить до списку 50 найкрасивіших сіл світу
Чому цього року популярні ліхтарі з червоними прапорами та жовтими зірками?
В'єтнам переміг у музичному конкурсі «Інтербачення 2025»

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт