הבנק הגדול ביותר באמריקה, ג'יי.פי מורגן צ'ייס, אמזון וחברת הטכנולוגיה אקסנצ'ר, כולם הגבילו את השימוש של עובדיהם ב-ChatGPT עקב חששות מאבטחת מידע.
לפי CNN, החששות של עסקים אלה מוצדקים לחלוטין. ב-20 במרץ, אירעה בצ'אטבוט של OpenAI שגיאה שחשפה נתוני משתמשים. למרות שהשגיאה תוקנה במהירות, החברה חשפה כי התקרית השפיעה על 1.2% ממשתמשי ChatGPT Plus. המידע שהודלף כלל שמות מלאים, כתובות דוא"ל, כתובות לחיוב, ארבע הספרות האחרונות של מספרי כרטיסי אשראי ותאריכי תפוגה של הכרטיס.
ב-31 במרץ, רשות הגנת המידע של איטליה (Garante) הוציאה איסור זמני על ChatGPT בטענה לחששות בנוגע לפרטיות לאחר ש-OpenAI חשפה את הפגיעות.
מארק מקרירי, יו"ר משותף לאבטחת מידע ופרטיות במשרד עורכי הדין פוקס רוטשילד LLP, אמר ל-CNN כי חששות האבטחה סביב ChatGPT אינם מוגזמים. הוא השווה את הצ'אטבוט מבוסס הבינה המלאכותית ל"קופסה שחורה".
ChatGPT הושק על ידי OpenAI בנובמבר 2022 ומשך במהירות תשומת לב בזכות יכולתו לכתוב מאמרים, לחבר סיפורים או מילות שירים על ידי מתן הנחיות. ענקיות טכנולוגיה כמו גוגל ומיקרוסופט השיקו גם כלי בינה מלאכותית שעובדים באופן דומה, מופעלים על ידי מודלי שפה גדולים שאומנו על מאגרי נתונים מקוונים ענקיים.
בעקבות הצעד של איטליה, גרמניה שוקלת גם לאסור את ChatGPT
כאשר משתמשים מזינים מידע לכלים אלה, הם לא יודעים כיצד הוא ישמש, הוסיף מר מקריי. זה מדאיג עבור חברות, שכן יותר ויותר עובדים משתמשים בכלים כדי לסייע בכתיבת מיילים לעבודה או רישום הערות לפגישות, מה שמוביל לסיכון גדול יותר לחשיפת סודות מסחריים.
סטיב מילס, מנהל אתיקה של בינה מלאכותית בבוסטון ייעוץ גרופ (BCG), אמר שחברות מודאגות מכך שעובדים חושפים בטעות מידע רגיש. אם הנתונים שאנשים מזינים משמשים לאימון כלי הבינה המלאכותית הזה, הם מסרו את השליטה בנתונים למישהו אחר.
בהתאם למדיניות הפרטיות של OpenAI, החברה רשאית לאסוף את כל המידע והנתונים האישיים ממשתמשי השירות כדי לשפר את מודלי הבינה המלאכותית שלה. הם עשויים להשתמש במידע זה כדי לשפר או לנתח את שירותיהם, לערוך מחקר, לתקשר עם משתמשים ולפתח תוכניות ושירותים חדשים.
מדיניות הפרטיות קובעת כי OpenAI רשאית לספק מידע אישי לצדדים שלישיים מבלי להודיע למשתמשים, אלא אם כן הדבר נדרש על פי חוק. ל-OpenAI יש גם מסמך תנאי שירות משלה, אך החברה מטילה חלק ניכר מהאחריות על המשתמשים לנקוט באמצעים מתאימים בעת אינטראקציה עם כלי בינה מלאכותית.
בעלי ChatGPT פרסמו בבלוג שלהם על גישתם לבינה מלאכותית בטוחה. החברה מדגישה שהיא אינה משתמשת בנתונים למכירת שירותים, פרסום או בניית פרופילים של משתמשים. במקום זאת, OpenAI משתמשת בנתונים כדי להפוך את המודלים שלה לשימושיים יותר. לדוגמה, שיחות משתמשים ישמשו לאימון ChatGPT.
מדיניות הפרטיות של ChatGPT נחשבת מעורפלת למדי.
גוגל, החברה שעומדת מאחורי Bard AI, מציעה הוראות פרטיות נוספות למשתמשי ה-AI שלה. החברה תבחר חלק קטן מהשיחה ותשתמש בכלים אוטומטיים כדי להסיר מידע המאפשר זיהוי אישי, מה שיעזור לשפר את Bard תוך הגנה על פרטיות המשתמשים.
שיחות לדוגמה ייבדקו על ידי מאמנים אנושיים ויאוחסנו עד שלוש שנים, בנפרד מחשבון גוגל של המשתמש. גוגל גם מזכירה למשתמשים לא לכלול מידע אישי על עצמם או על אחרים בשיחות ב-Bard AI. ענקית הטכנולוגיה מדגישה כי שיחות אלו לא ישמשו למטרות פרסום ותכריז על שינויים בעתיד.
בינה מלאכותית של בארד מאפשרת למשתמשים לבחור שלא לשמור שיחות בחשבונות גוגל שלהם, וכן לבדוק או למחוק שיחות באמצעות קישור. בנוסף, לחברה יש אמצעי הגנה שנועדו למנוע מבארד לכלול מידע אישי בתגובות.
סטיב מילס אומר שלפעמים משתמשים ומפתחים מגלים את סיכוני האבטחה החבויים בטכנולוגיות חדשות רק כשמאוחר מדי. לדוגמה, פונקציות מילוי אוטומטי יכולות לחשוף בטעות את מספרי הביטוח הלאומי של המשתמשים.
"משתמשים לא צריכים להכניס לכלים אלה שום דבר שהם לא היו רוצים שישתף עם אחרים", אמר מר מילס.
[מודעה_2]
קישור למקור
תגובה (0)