7 sierpnia Google wprowadziło funkcję Guided Learning na platformie Gemini – „nauczyciela AI”, który potrafi dostosowywać lekcje do potrzeb poszczególnych osób, analizować każdy krok, wyjaśniać materiał za pomocą obrazów, diagramów, filmów i pytań wielokrotnego wyboru. Celem jest „aktywna nauka”, co rozwiązuje problem, gdy wiele chatbotów AI narzekało na zbyt szybkie „oddawanie prac domowych”, co powodowało spadek umiejętności samodzielnej nauki.
Wiele wygodnych funkcji
Dzięki funkcji Guided Learning firma Google ulepsza całe Gemini, aby wspierać głębszą naukę, w tym automatyczne wstawianie obrazów, filmy z YouTube, generowanie fiszek i tworzenie programów nauczania na podstawie dokumentów lub wyników testów. Ekosystem AI Pro zawiera NotebookLM (podsumowywanie dokumentów, analiza), Veo 3 (przetwarzanie wideo), Deep Research (pogłębione zapytania)…
OpenAI właśnie uruchomiło ChatGPT-5, wersję, którą sam prezes Sam Altman porównał do eksperta z tytułem doktora. Stwierdził, że GPT-5 przetwarza informacje dokładniej, redukując błędy o 45% w porównaniu z GPT-4o i o 80% w porównaniu z modelem o3. W szczególności GPT-5 oferuje programistyczne „supermoce”, pozwalając na stworzenie zupełnie nowego, rozbudowanego modelu językowego w mniej niż 5 minut. ChatGPT oferuje nie tylko tryb nauki, ale także szereg innych funkcji, takich jak tryb Canvas (edycja wizualna), zaawansowana analiza danych (zaawansowane przetwarzanie danych), integracja z Sora do tworzenia filmów AI oraz modele o3 i o4-mini do badań. Ponadto Microsoft Copilot wszedł do programów Word, Excel i PowerPoint; Anthropic Claude doskonale radzi sobie z czytaniem i podsumowywaniem długich dokumentów; Perplexity AI wyróżnia się precyzyjnym wyszukiwaniem i cytowaniem.
Nie chcąc być gorszym, miliarder Elon Musk uruchomił również Grok 4, który nazywa „najmądrzejszą sztuczną inteligencją świata ”. Musk zapewnił, że gdyby zdała ona SAT – standardowy test rekrutacyjny na studia – za każdym razem uzyskałaby idealny wynik, przewyższając nawet większość studentów studiów podyplomowych w każdej dziedzinie.
Pani Thu Trang, pracownica biurowa w Ho Chi Minh, skorzystała z trybu nauki ChatGPT, aby poszerzyć swoje umiejętności analizy danych sprzedażowych. Sztuczna inteligencja prowadziła ją krok po kroku, zadając pytania, dzięki którym mogła samodzielnie znaleźć rozwiązanie, zupełnie jak podczas nauki z mentorem.
Jednocześnie pan Minh Quan (mieszkający w Ho Chi Minh) skorzystał z narzędzia Guided Learning w Google Gemini, aby sprawdzić swoją wiedzę z zakresu projektowania graficznego. „Sztuczna inteligencja wyjaśnia bardzo intuicyjnie za pomocą obrazów i filmów, pomagając mi zapamiętać treść na dłużej. Jednak podczas pobierania długich dokumentów, sztuczna inteligencja czasami dzieli treść na niepotrzebnie długie fragmenty, więc muszę ją samodzielnie uporządkować, aby uzyskać właściwą odpowiedź” – powiedział pan Quan.

Sztuczna inteligencja staje się coraz inteligentniejsza, ale trzeba ją odpowiednio wykorzystać, aby uniknąć zależności
Unikaj uzależnienia
Korzystanie z narzędzi AI jest wygodne, ale wielu użytkowników przyznaje również, że nadużywanie AI czasami czyni ich „leniwszymi”. Hoang Hai, student czwartego roku na uniwersytecie w Ho Chi Minh, powiedział: „Czasami proszę ChatGPT o pomoc w odrabianiu prac domowych. Jednak jeśli korzystam z niego przez długi czas bez kontroli, łatwo uzależnić się i stopniowo tracić zdolność do samodzielnej analizy”.
Nowe badanie przeprowadzone przez Laboratorium Mediów Massachusetts Institute of Technology (MIT) ostrzega, że korzystanie ze sztucznej inteligencji może zmniejszyć aktywność intelektualną. 54 ochotników podzielono na 3 grupy: korzystali z ChatGPT, wyszukiwali informacje w Google i pisali o sobie. Wyniki pokazały, że grupa korzystająca z ChatGPT miała najniższy poziom aktywności mózgu, była mniej skuteczna zarówno w aspektach neurologicznych, językowych, jak i behawioralnych, a także stopniowo uzależniała się, kopiując nawet treści przetwarzane przez sztuczną inteligencję.
Pan Nguyen Van Thuc, prezes Keystone Technology and Training Joint Stock Company, powiedział, że sztuczna inteligencja rozwija się w niespotykanym dotąd tempie, otwierając wiele możliwości w nauce i pracy. Największym problemem nie jest technologia, ale sposób, w jaki ludzie z niej korzystają, ponieważ wiele osób stopniowo uzależnia się od niej i ignoruje własny proces myślowy. Według pana Thuca, aby sztuczna inteligencja stała się skutecznym narzędziem wsparcia, konieczne jest wyrobienie nawyku „uczenia się z AI”, a nie „uczenia się dzięki AI”. Oznacza to, że użytkownicy powinni pozwolić AI sugerować, analizować i orientować się, ale jednocześnie sami znajdować ostateczne odpowiedzi. Platformy AI powinny również projektować mechanizmy zachęcające do proaktywnego myślenia, takie jak zadawanie pytań odwrotnych, proszenie użytkowników o wyjaśnienie lub porównanie odpowiedzi, zamiast po prostu dostarczania pełnych wyników. „Sztuczna inteligencja może być najbardziej cierpliwym nauczycielem, ale jeśli będzie „odrabiać pracę domową za” uczniów, stracą oni umiejętności analityczne i kreatywne – czynniki, których maszyny nie są w stanie całkowicie zastąpić” – podkreślił pan Thuc.
Według pana Phan Thanh Tunga, przedstawiciela dostawcy rozwiązań technologicznych AI w Ho Chi Minh City, AI staje się coraz bardziej niezbędnym elementem procesu uczenia się i pracy. Jednak użytkownicy, którym brakuje umiejętności filtrowania i weryfikowania informacji, mogą łatwo odbierać je pasywnie, co prowadzi do nieporozumień lub mechanicznego stosowania. Oprócz udzielania wskazówek dotyczących korzystania z narzędzi, szkoły i organizacje szkoleniowe muszą włączyć do programu nauczania umiejętności krytycznego myślenia i zarządzania technologią. „Uczniowie muszą wiedzieć, kiedy zwrócić się o wsparcie AI, a kiedy przeprowadzić samodzielną analizę. Muszą wiedzieć, jak inteligentnie wykorzystywać AI, aby rozwijać zdolność myślenia, a nie iść na skróty i pomijać proces treningu mózgu” – zauważył pan Tung.
Wyciek danych
Według „The Telegraph”, w wynikach wyszukiwania Google pojawiło się ponad 500 prywatnych rozmów ChatGPT zawierających poufne informacje, takie jak dyskusje wewnętrzne, oszustwa, plany cyberataków oraz pytania od lekarzy i prawników. Badacz Henk van Ess stwierdził, że w Wayback Machine – narzędziu do archiwizacji stron internetowych Internet Archive – przechowywanych jest około 110 000 innych rozmów. Eksperci ostrzegali, że ten wyciek może zostać wykorzystany przez cyberprzestępców; użytkownicy nie udostępniają poufnych danych sztucznej inteligencji i zaapelowali do deweloperów o wzmocnienie zabezpieczeń, aby zapobiec podobnym incydentom.
Źródło: https://nld.com.vn/le-thuoc-hay-dung-ai-thong-minh-196250816202226394.htm










Komentarz (0)