ההתפתחות המהירה והבלתי צפויה של ChatGPT - צ'אטבוט מבוסס בינה מלאכותית (AI) עם פונקציות מתקדמות - שינתה במידה מסוימת את חיי האדם, במיוחד את אופן העבודה. עם זאת, הסיכונים הכרוכים בטכנולוגיה זו עוררו חששות רבים בקרב רשויות במדינות רבות, במיוחד חששות בנוגע לנתוני משתמשים.
בהקשר של העולם עדיין חסרה מסגרת משפטית חדשה ויציבה לניהול יעיל של בינה מלאכותית ולהבטחת אמינות גבוהה למשתמשים, מדינות רבות החלו לנקוט צעדים להסדרת השימוש ב-ChatGPT ובבינה מלאכותית באופן כללי כדי למזער את הסיכונים שטכנולוגיה זו מביאה עמה.
מדינות רבות "נוקטות פעולה" עם בינה מלאכותית
איטליה נמצאת בחזית ההחלטה לאסור את ChatGPT.
ב-31 במרץ, הרשויות האיטלקיות הוציאו איסור זמני על אפליקציית ChatGPT עקב חששות בנוגע לפרטיות וכישלונה של האפליקציה לאמת משתמשים בני 13 ומעלה כפי שנדרש על ידי איטליה. במקביל, איטליה הודיעה גם כי תפתח בחקירה בנוגע לאופן שבו OpenAI משתמשת בנתוני משתמשים.
בעקבות האיסור של איטליה על ChatGPT, מדינות רבות נקטו צעדים נגד האפליקציה. (צילום: רויטרס).
רשות הגנת המידע של איטליה נתנה ל-OpenAI - החברה שיצרה את ChatGPT - מועד אחרון של סוף אפריל לעמוד בדרישות הגנת המידע והפרטיות לפני חידוש הפעילות הרגילה במדינה.
מיד לאחר החלטת איטליה, מדינות רבות החלו "ללכת" בעקבות מדינה זו בחסימת ChatGPT עקב חששות הקשורים לבעיות אבטחה ופרטיות נתונים.
רגולטורי פרטיות ואבטחה צרפתיים ואיריים יצרו קשר עם עמיתיהם האיטלקים כדי ללמוד על הבסיס לאיסור. רשות הפרטיות הצרפתית CNIL מסרה ב-11 באפריל כי היא חוקרת מספר תלונות בנוגע ל-ChatGPT.
נציב הגנת המידע של גרמניה אמר כי ברלין צפויה "ללכת בעקבות איטליה" בחסימת ChatGPT.
ראוי לציין כי רשות הגנת המידע האירופית (EDPB) הקימה צוות משימה בנושא ChatGPT ב-13 באפריל, וקבעה כי: "המדינות החברות ב-EDPB דנו בפעולות האכיפה האחרונות של רשות הגנת המידע האיטלקית נגד OpenAI בנוגע לשירות ChatGPT. ה-EDPB החליטה להשיק צוות משימה לקידום שיתוף פעולה ולהחלפת מידע על פעולות אכיפה אפשריות."
בנוסף, מחוקקים באיחוד האירופי (EU) דנים גם בחוק הבינה המלאכותית של האיחוד האירופי, אשר יסדיר כל מי שמספק מוצרים או שירותים באמצעות בינה מלאכותית, כולל מערכות המייצרות תוכן, תחזיות, המלצות או החלטות המשפיעות על הסביבה. האיחוד האירופי הציע גם לסווג כלי בינה מלאכותית שונים לפי רמת הסיכון שלהם, מנמוכה ועד בלתי מקובלת.
סוכנות הגנת המידע AEPD של ספרד הודיעה כי היא מבצעת חקירה ראשונית של פרצות הנתונים של ChatGPT.
באוסטרליה, משרד המדע והטכנולוגיה הודיע ב-12 באפריל כי הממשלה ביקשה מגוף הייעוץ המדעי שלה ייעוץ כיצד להגיב לבינה מלאכותית ושוקלת את הצעדים הבאים.
המהלך מעלה שאלות בנוגע לבטיחות הבינה המלאכותית ומה ממשלות יכולות לעשות כדי להפחית את הסיכונים שלה. דו"ח שפורסם במרץ על ידי חברת הייעוץ KPMG ואיגוד תעשיית המידע האוסטרלי מצא כי שני שלישים מהאוסטרלים אמרו כי אין חוקים או תקנות מספיקים כדי למנוע שימוש לרעה בבינה מלאכותית, בעוד שפחות ממחציתם האמינו כי בינה מלאכותית נמצאת בשימוש בטוח במקום העבודה.
מדינות רבות החלו לנקוט צעדים להסדרת טכנולוגיית בינה מלאכותית. (צילום: רויטרס).
בבריטניה, הממשלה הודיעה כי בכוונתה לפצל את האחריות על ויסות הבינה המלאכותית בין גופי זכויות אדם, בריאות ובטיחות ותחרות, במקום ליצור רגולטור חדש.
לאחרונה, מנהיג הרוב הדמוקרטי בסנאט האמריקאי, צ'אק שומר, ניסח והוציא מסגרת רגולטורית חדשה בנושא בינה מלאכותית שעשויה למנוע נזק קטסטרופלי למדינה. הצעתו של מר שומר מחייבת חברות לאפשר למומחים עצמאיים לסקור ולבחון טכנולוגיית בינה מלאכותית לפני שחרורה או עדכונה.
מוקדם יותר ב-11 באפריל, משרד המסחר האמריקאי הודיע כי הוא מבקש את תגובת הציבור על צעדים לניהול אחריות בתחום הבינה המלאכותית.
בינתיים, המרכז לבינה מלאכותית ומדיניות דיגיטלית בארה"ב ביקש מנציבות המסחר לחסום את OpenAI משחרור גרסאות מסחריות חדשות של GPT-4, בטענה שהטכנולוגיה "מוטה, מטעה ומהווה סיכון לפרטיות ולבטיחות הציבור".
בינתיים, ביפן, שר הטרנספורמציה הדיגיטלית, טארו קונו, אמר שהוא רוצה שפגישת שרי הדיגיטל הקרובה של מדינות ה-G7, שתתקיים בסוף אפריל, תדון בטכנולוגיות בינה מלאכותית, כולל ChatGPT, ותעביר מסר אחיד של מדינות ה-G7.
סין הודיעה לאחרונה על צעדים מתוכננים להסדרת שירותי בינה מלאכותית, וקבעה כי חברות המספקות טכנולוגיית בינה מלאכותית חייבות להגיש הערכות אבטחה לרשויות לפני השקת השירותים בשוק.
מומחים מזהירים מפני סכנות מבינה מלאכותית
ישנם מומחים שאומרים כי בינה מלאכותית עלולה להוביל ל"אסון ברמה גרעינית". (צילום: רויטרס).
סקר שפורסם על ידי מכון הבינה המלאכותית של אוניברסיטת סטנפורד בתחילת אפריל מצא כי 36% מהחוקרים מאמינים שבינה מלאכותית עלולה להוביל ל"אסון ברמה גרעינית", מה שמדגיש עוד יותר את החששות הקיימים לגבי ההתפתחות המהירה של הטכנולוגיה.
בינתיים, 73% מהבינה המלאכותית תוביל ל"שינוי חברתי מהפכני".
הדו"ח קובע כי בעוד שטכנולוגיות אלו מציעות יכולות שלא ניתן היה לדמיין אותן לפני עשור, הן גם נוטות לאשליות, הטיה וניצול לרעה למטרות זדוניות, ויוצרות אתגרים אתיים עבור משתמשי שירותים אלו.
הדו"ח ציין גם כי מספר "התקריות והמחלוקות" הקשורות לבינה מלאכותית גדל פי 26 בעשור האחרון.
בחודש שעבר, המיליארדר אילון מאסק ומייסד אפל, סטיב ווזניאק, היו בין אלפי מומחי טכנולוגיה שחתמו על מכתב הקורא להפסקת הכשרת מערכות בינה מלאכותית חזקות יותר מהצ'אטבוט GPT-4 של Open AI, באומרם כי "יש לפתח מערכות בינה מלאכותית חזקות רק לאחר שאנו בטוחים שהשפעתן תהיה חיובית והסיכונים שלהן יהיו ניתנים לניהול".
יונגקאנג (רויטרס, אל ג'זירה, ABC)
[מודעה_2]
מָקוֹר
תגובה (0)