חברות באיחוד האירופי הסכימו בעבר להשתמש בטכנולוגיית סריקת פנים בציבור רק במצבים מסוימים של אכיפת חוק, "קו אדום" עבור מדינות במשא ומתן עם הפרלמנט האירופי והנציבות.
כמה מחברי מרכז-ימין הציעו חריגים שיוכלו להשתמש בטכנולוגיית מעקב ביומטרית כדי לסייע במציאת ילדים נעדרים או במניעת פיגועי טרור, אך גם אלה לא אושרו בהצבעה במליאה.
מחוקקים הסכימו להטיל צעדים נוספים על פלטפורמות בינה מלאכותית גנרטיביות כמו GPT-4, המחייבות חברות כמו OpenAI וגוגל לבצע הערכות סיכונים ולגלות איזה חומר מוגן בזכויות יוצרים שימש לאימון מודלים של בינה מלאכותית.
גישת הרגולציה של האיחוד האירופי מבוססת על הערכת סיכונים. היא מתמקדת בוויסות השימוש בבינה מלאכותית ולא בטכנולוגיה עצמה, תוך איסור מוחלט על יישומים מסוימים כמו ניקוד חברתי וקביעת סטנדרטים לשימוש בטכנולוגיה במצבים "בסיכון גבוה".
הנוסח המלא של טיוטת חוק הבינה המלאכותית אומץ ב-14 ביוני, ובכך סלל את הדרך לדיון "תלת צדדי" בין הפרלמנט של האיחוד האירופי, המדינות החברות והנציבות האירופית.
הנציבות מקווה להגיע להסכם עד סוף השנה הנוכחית על יישומו של חוק הבינה המלאכותית עבור חברות כבר בשנת 2026. בינתיים, כמה גורמים רשמיים דוחפים ל"קוד התנהגות" וולונטרי עבור חברות שיחול על מדינות ה-G-7, יחד עם הודו ואינדונזיה.
החמרת הרגולציה של האיחוד האירופי על בינה מלאכותית עלולה להשפיע באופן משמעותי על מגזר ששוויו מוערך ביותר מ-1.3 טריליון דולר בעשר השנים הקרובות, שכן הפרות של כללי הגוש עלולות להוביל לקנסות של עד 6% מהמחזור השנתי.
(על פי בלומברג)
[מודעה_2]
מָקוֹר






תגובה (0)