Лист, який ознаменував поворотний момент.
Агентство Reuters повідомило 23 листопада з посиланням на ексклюзивні джерела, що за чотири дні до звільнення генерального директора Сема Альтмана кілька дослідників OpenAI надіслали листа до ради директорів компанії, попереджаючи про потужне відкриття штучного інтелекту (ШІ), яке може загрожувати людству. Лист, про який ніколи раніше не згадувалося, та сам алгоритм ШІ стали важливими подіями, що призвели до звільнення Сема Альтмана, співзасновника OpenAI, 17 листопада. Він повернувся на свою посаду 21 листопада (за американським часом) після двох раундів переговорів з OpenAI. За даними джерел, лист був однією з причин рішення ради директорів OpenAI звільнити його, хоча в офіційній заяві лише зазначалося, що Альтман був «непослідовним і непрямим у своєму спілкуванні з радою директорів».
Пан Альтман ( праворуч ) та керівники технологічних компаній обговорюють це питання на конференції АТЕС у Сан-Франциско, США, 16 листопада.
За даними джерел, одна з давніх старших менеджерів OpenAI, Міра Мураті, 22 листопада згадала співробітникам проєкт під назвою Q* та повідомила, що рада директорів компанії отримала листа перед звільненням Альтмана. Одне з джерел повідомило, що OpenAI досягла прогресу в проєкті Q*, що потенційно може стати проривом у пошуках суперінтелекту, також відомого як загальний штучний інтелект (ЗШІ).
Хоча нова модель виконує математичні обчислення лише на рівні початкової школи, її здатність вирішувати такі задачі спонукала дослідників з великим оптимізмом дивитися на майбутній успіх Q*. Дослідники розглядають математику як передумову для розвитку генеративного ШІ. Наразі генеративний ШІ може писати та перекладати мови, хоча відповіді на одне й те саме питання можуть сильно відрізнятися. Однак, опанування здатності до математики, галузі з лише однією правильною відповіддю, означає, що ШІ матиме кращі здібності до міркування, подібні до людських. Дослідники вважають, що це можна застосувати до нових наукових досліджень.
Сем Альтман повертається на посаду генерального директора OpenAI.
Потенційна небезпека?
У листі до ради директорів OpenAI дослідники окреслили можливості та потенційні небезпеки штучного інтелекту, за даними джерел. Комп'ютерні науковці давно обговорюють небезпеки, що виникають від надрозумних машин, наприклад, чи можуть вони вирішити знищити людство заради власної вигоди. На цьому тлі Альтман очолив зусилля, спрямовані на те, щоб зробити ChatGPT одним із найшвидше зростаючих програмних додатків в історії, та залучив інвестиції та обчислювальні ресурси, необхідні для наближення до ЗШІ. Окрім оголошення серії нових інструментів на заході цього місяця, Альтман минулого тижня в Сан-Франциско заявив світовим лідерам, що, на його думку, ЗШІ вже не за горами. Днем пізніше його звільнила рада директорів OpenAI. OpenAI та Альтман не прокоментували лист.
Стурбовані потенційними ризиками штучного інтелекту, багато західних урядів та технологічних компаній домовилися про новий механізм безпечного тестування. Однак, за даними AFP, Генеральний секретар ООН Антоніу Гутерріш заявив, що світ все ще «грає в пастку» у своїх зусиллях щодо регулювання штучного інтелекту, що ризикує мати довгострокові негативні наслідки для всього, від робочих місць до культури.
На OpenAI та Microsoft подали до суду за порушення авторських прав.
23 листопада видання The Hill повідомило, що група авторів документальної літератури подала позов, у якому стверджується, що OpenAI та Microsoft навчили свій інструмент ChatGPT копіювати їхні роботи без їхньої згоди. У позові, поданому до федерального суду Нью-Йорка, головний позивач Джуліан Санктон стверджує, що він та інші автори не отримали жодної компенсації за скопійовані роботи штучного інтелекту, тоді як OpenAI та Microsoft досягли фінансового успіху завдяки комерціалізації своїх робіт, отримавши мільярди доларів доходу від продуктів штучного інтелекту. За даними Reuters, речник OpenAI відмовився коментувати позов, а представник Microsoft не одразу відповів на запит про коментар.
Посилання на джерело







Коментар (0)