W dniach 7-8 sierpnia Google zaprezentowało na swojej platformie Gemini funkcję Guided Learning – „nauczyciela AI”, który może dostosowywać lekcje do indywidualnych potrzeb, analizować każdy krok, wyjaśniać za pomocą obrazów, diagramów i filmów oraz przeprowadzać testy za pomocą pytań wielokrotnego wyboru. Celem jest „aktywna nauka”, co stanowi odpowiedź na wcześniejsze skargi dotyczące zbyt szybkiego „odpowiadania na zadania” przez wiele chatbotów AI, co prowadzi do spadku umiejętności samodzielnej nauki.
Wiele przydatnych funkcji
Dzięki funkcji Guided Learning firma Google zmodernizowała cały pakiet Gemini, aby umożliwić głębsze uczenie się, w tym automatyczne wstawianie obrazów i filmów z YouTube, tworzenie fiszek oraz opracowywanie programów nauczania na podstawie dokumentów lub wyników testów. Ekosystem AI Pro obejmuje NotebookLM (podsumowywanie i analiza dokumentów), Veo 3 (przetwarzanie wideo), Deep Research (głębokie zapytania) i wiele innych.
Firma OpenAI właśnie uruchomiła również ChatGPT-5, wersję, którą prezes Sam Altman porównał do eksperta z tytułem doktora. Stwierdził, że GPT-5 przetwarza informacje znacznie dokładniej, redukując błędy o 45% w porównaniu z GPT-4o i o 80% w porównaniu z modelem o3. Co ciekawe, GPT-5 oferuje „supermoce” w programowaniu – stworzenie zupełnie nowego modelu języka na dużą skalę zajmuje mniej niż 5 minut. ChatGPT oferuje nie tylko tryb nauki, ale także szereg innych funkcji, takich jak tryb Canvas (edycja wizualna), zaawansowana analiza danych (zaawansowane przetwarzanie danych), integracja z Sora do tworzenia filmów AI oraz modele o3 i o4-mini do badań. Ponadto Microsoft Copilot został zintegrowany z programami Word, Excel i PowerPoint; Anthropic Claude doskonale radzi sobie z czytaniem i podsumowywaniem długich dokumentów; a Perplexity AI wyróżnia się precyzyjnym wyszukiwaniem i cytowaniem źródeł.
Nie chcąc być gorszym, miliarder Elon Musk stworzył również Grok 4, który nazywa „najmądrzejszą sztuczną inteligencją świata ”. Musk twierdzi, że gdyby system ten zdawał egzamin SAT – standardowy test rekrutacyjny na studia – za każdym razem uzyskałby maksymalną liczbę punktów, przewyższając nawet większość studentów studiów podyplomowych w dowolnej dziedzinie.
Pani Thu Trang, pracownica biurowa w Ho Chi Minh, wypróbowała tryb nauki ChatGPT, aby dowiedzieć się więcej o umiejętnościach analizy danych sprzedażowych. Sztuczna inteligencja prowadziła ją krok po kroku, zadając pytania, które pomagały jej samodzielnie znaleźć rozwiązania, zupełnie jak podczas nauki z mentorem.
Tymczasem Minh Quan (z Ho Chi Minh) skorzystał z narzędzia Google Gemini Guided Learning, aby sprawdzić swoją wiedzę z zakresu projektowania graficznego. „Sztuczna inteligencja objaśnia wszystko bardzo wizualnie za pomocą obrazów i filmów, pomagając mi lepiej zapamiętywać. Jednak podczas pobierania długich dokumentów, sztuczna inteligencja czasami dzieli treść na nielogiczne fragmenty, więc muszę ją samodzielnie uporządkować, aby uzyskać właściwą odpowiedź” – powiedział Quan.

Sztuczna inteligencja staje się coraz inteligentniejsza, ale trzeba ją prawidłowo wykorzystywać, żeby nie stać się od niej zależnym.
Unikaj zależności.
Chociaż narzędzia AI są przydatne, wielu użytkowników przyznaje również, że nadużywanie AI czasami czyni ich leniwymi. Hoang Hai, student czwartego roku na uniwersytecie w Ho Chi Minh, powiedział: „Czasami proszę ChatGPT o rozwiązanie za mnie zadania domowego. Jednak przy długotrwałym korzystaniu z niego bez kontroli, łatwo uzależnić się i stopniowo stracić zdolność do samodzielnej analizy”.
Nowe badanie przeprowadzone przez MIT Media Lab ostrzega, że korzystanie ze sztucznej inteligencji może osłabiać funkcje poznawcze. 54 ochotników podzielono na trzy grupy: korzystającą z ChatGPT, wyszukującą w Google i piszącą ręcznie. Wyniki pokazały, że grupa korzystająca z ChatGPT charakteryzowała się najniższym poziomem aktywności mózgu, była mniej wydajna pod względem neuronauki, języka i zachowania oraz stopniowo uzależniała się od treści przetwarzanych przez sztuczną inteligencję, a nawet kopiowała je dosłownie.
Pan Nguyen Van Thuc, prezes Keystone Technology and Training Joint Stock Company, uważa, że sztuczna inteligencja rozwija się w niespotykanym dotąd tempie, otwierając wiele możliwości w nauce i pracy. Największy problem nie leży w samej technologii, ale w sposobie, w jaki ludzie z niej korzystają, ponieważ wielu stopniowo uzależnia się od niej, zaniedbując własny proces myślowy. Według pana Thuca, aby sztuczna inteligencja stała się skutecznym narzędziem wsparcia, konieczne jest wyrobienie nawyku „uczenia się z AI”, a nie „uczenia się dzięki AI”. Oznacza to, że użytkownicy powinni pozwolić AI sugerować, analizować i kierować nimi, ale jednocześnie sami znaleźć ostateczną odpowiedź. Platformy AI powinny również projektować mechanizmy zachęcające do aktywnego myślenia, takie jak zadawanie pytań odwrotnych, wymaganie od użytkowników wyjaśnienia lub porównania odpowiedzi, zamiast po prostu podawania pełnych wyników. „Sztuczna inteligencja może być najbardziej cierpliwym nauczycielem, ale jeśli pozwolimy jej „odrobić pracę domową za ciebie”, uczniowie stracą umiejętności analityczne i kreatywne – elementy, których maszyny nie są w stanie całkowicie zastąpić” – podkreślił pan Thuc.
Według pana Phan Thanh Tunga, przedstawiciela firmy oferującej rozwiązania technologiczne z zakresu sztucznej inteligencji (AI) w Ho Chi Minh City, AI staje się coraz bardziej istotnym elementem uczenia się i pracy. Jednak bez umiejętności filtrowania i weryfikowania informacji, użytkownicy mogą łatwo biernie ją przyswajać, co prowadzi do nieporozumień lub bezmyślnego stosowania. Oprócz udzielania wskazówek dotyczących korzystania z narzędzi, szkoły i organizacje szkoleniowe muszą włączyć umiejętności krytycznego myślenia i zarządzania technologią do swoich programów nauczania. „Uczniowie muszą wiedzieć, kiedy szukać pomocy w zakresie AI, a kiedy samodzielnie analizować sytuację. Muszą wiedzieć, jak inteligentnie wykorzystywać AI, aby rozwijać swoje zdolności myślenia, zamiast iść na skróty i zaniedbywać proces treningu intelektualnego” – zauważył pan Tung.
Wyciek danych
Według „The Telegraph”, w wynikach wyszukiwania Google pojawiło się ponad 500 prywatnych czatów z ChatGPT, zawierających poufne informacje, takie jak dyskusje wewnętrzne, oszustwa, plany cyberataków oraz pytania od lekarzy i prawników. Badacz Henk van Ess stwierdził, że około 110 000 innych rozmów jest przechowywanych w Wayback Machine – narzędziu do archiwizacji stron internetowych Internet Archive. Eksperci ostrzegają, że ten wyciek może zostać wykorzystany przez cyberprzestępców; użytkownicy nie powinni udostępniać poufnych danych sztucznej inteligencji i apelują do deweloperów o wzmocnienie zabezpieczeń, aby zapobiec podobnym incydentom.
Źródło: https://nld.com.vn/le-thuoc-hay-dung-ai-thong-minh-196250816202226394.htm






Komentarz (0)