Am 7. August stellte Google Guided Learning auf der Gemini-Plattform vor – einen „KI-Tutor“, der die Lektionen individuell anpassen, jeden Schritt analysieren, mit Bildern, Diagrammen und Videos erklären und mit Multiple-Choice-Fragen überprüfen kann. Ziel ist „aktives Lernen“, wodurch die Situation verbessert wird, in der viele KI-Chatbots kritisiert wurden, weil sie zu schnell „Hausaufgaben zurückgeben“, was zu einem Rückgang der Selbstlernfähigkeiten führt.
Viele praktische Funktionen
Mit Guided Learning erweitert Google Gemini um Funktionen für vertieftes Lernen, darunter das automatische Einfügen von Bildern, YouTube-Videos, die Generierung von Karteikarten und die Erstellung von Lerninhalten auf Basis von Dokumenten oder Testergebnissen. Das AI Pro-Ökosystem umfasst NotebookLM (Dokumentenzusammenfassung und -analyse), Veo 3 (Videoverarbeitung), Deep Research (umfassende Abfragen)…
OpenAI hat außerdem ChatGPT-5 veröffentlicht, eine Version, die CEO Sam Altman selbst mit einem promovierten Experten verglich. Er erklärte, GPT-5 verarbeite Informationen präziser und reduziere Fehler um 45 % im Vergleich zu GPT-4o und um 80 % im Vergleich zum o3-Modell. GPT-5 verfügt insbesondere über Programmierfähigkeiten und kann in weniger als fünf Minuten ein komplett neues, großes Sprachmodell erstellen. ChatGPT bietet neben dem Lernmodus auch eine Reihe weiterer Funktionen wie den Canvas-Modus (visuelle Bearbeitung), erweiterte Datenanalyse (fortgeschrittene Datenverarbeitung), die Sora-Integration zur Erstellung von KI-Videos sowie die o3- und o4-mini-Modelle für Forschungszwecke. Darüber hinaus ist Microsoft Copilot in Word, Excel und PowerPoint integriert; Anthropic Claude zeichnet sich durch seine Stärken im Lesen und Zusammenfassen langer Dokumente aus; Perplexity AI besticht durch präzise Suche und Zitation.
Um nicht nachzustehen, brachte auch Milliardär Elon Musk Grok 4 auf den Markt, das er als „ die intelligenteste KI der Welt “ bezeichnet. Musk behauptete, dass es beim SAT – einem standardisierten Test für die Hochschulzulassung – jedes Mal die volle Punktzahl erreichen und sogar die meisten Hochschulabsolventen in allen Fachbereichen übertreffen würde.
Frau Thu Trang, eine Büroangestellte aus Ho-Chi-Minh-Stadt, nutzte den Lernmodus von ChatGPT, um ihre Fähigkeiten in der Vertriebsdatenanalyse zu verbessern. Die KI führte sie Schritt für Schritt durch den Lernprozess und stellte ihr gezielte Fragen, sodass sie die Lösung selbst finden konnte – ähnlich wie beim Lernen mit einem Mentor.
Herr Minh Quan (wohnhaft in Ho-Chi-Minh-Stadt) nutzte außerdem das geführte Lernen von Google Gemini, um seine Kenntnisse im Grafikdesign aufzufrischen. „Die KI erklärt die Inhalte sehr intuitiv mit Bildern und Videos, was mir hilft, sie mir besser zu merken. Beim Herunterladen langer Dokumente zerlegt die KI den Inhalt jedoch manchmal in unlogische Abschnitte, sodass ich ihn selbst wieder neu anordnen muss, um die richtige Antwort zu finden“, sagte Herr Quan.

Künstliche Intelligenz wird immer intelligenter, muss aber richtig eingesetzt werden, um Abhängigkeiten zu vermeiden.
Abhängigkeit vermeiden
Die Nutzung von KI-Tools ist zwar praktisch, doch viele Nutzer geben zu, dass übermäßiger Gebrauch von KI sie manchmal „fauler“ macht. Hoang Hai, Student im vierten Studienjahr an einer Universität in Ho-Chi-Minh-Stadt, sagte: „Manchmal lasse ich mir von ChatGPT bei meinen Hausaufgaben helfen. Wenn ich es jedoch über einen längeren Zeitraum unkontrolliert nutze, werde ich leicht abhängig und verliere allmählich die Fähigkeit, selbstständig zu analysieren.“
Eine neue Studie des Media Lab am Massachusetts Institute of Technology (MIT) warnt davor, dass der Einsatz von KI die Denkfähigkeit beeinträchtigen kann. 54 Freiwillige wurden in drei Gruppen eingeteilt: eine nutzte ChatGPT, eine suchte bei Google und eine verfasste eigene Texte. Die Ergebnisse zeigten, dass die ChatGPT-Gruppe die geringste Hirnaktivität aufwies, in neurologischer, sprachlicher und verhaltensbezogener Hinsicht weniger leistungsfähig war und zunehmend abhängig wurde, indem sie sogar die von der KI verarbeiteten Inhalte kopierte.
Herr Nguyen Van Thuc, CEO der Keystone Technology and Training Joint Stock Company, erklärte, dass sich KI in einem beispiellosen Tempo entwickle und zahlreiche Möglichkeiten im Lern- und Arbeitsbereich eröffne. Das größte Problem sei jedoch nicht die Technologie selbst, sondern deren Nutzung. Viele Menschen würden zunehmend abhängig von ihr und vernachlässigten ihren eigenen Denkprozess. Laut Herrn Thuc müsse KI nur dann ein effektives Unterstützungsinstrument werden, wenn die Gewohnheit des „Lernens mit KI“ statt des „Lernens dank KI“ etabliert werde. Das bedeute, dass Nutzer sich von KI zwar Vorschläge machen, analysieren und Orientierung geben lassen sollten, die endgültige Antwort aber dennoch selbst finden müssten. KI-Plattformen sollten zudem Mechanismen entwickeln, die proaktives Denken fördern, beispielsweise durch das Stellen von Rückfragen oder das Auffordern der Nutzer, Antworten zu erklären oder zu vergleichen, anstatt lediglich fertige Ergebnisse zu liefern. „KI kann der geduldigste Tutor sein, aber wenn sie den Lernenden die Hausaufgaben abnimmt, verlieren diese analytische und kreative Fähigkeiten – Faktoren, die Maschinen nicht vollständig ersetzen können“, betonte Herr Thuc.
Laut Herrn Phan Thanh Tung, Vertreter eines Anbieters von KI-Technologielösungen in Ho-Chi-Minh-Stadt, wird KI zunehmend zu einem unverzichtbaren Bestandteil des Lern- und Arbeitsprozesses. Fehlen Nutzern jedoch die Fähigkeiten, Informationen zu filtern und zu überprüfen, nehmen sie diese leicht passiv auf, was zu Missverständnissen oder einer rein mechanischen Anwendung führen kann. Neben der Vermittlung von Anleitungen zur Nutzung von Tools müssen Schulen und Ausbildungseinrichtungen kritisches Denken und Kompetenzen im Umgang mit Technologie in ihre Lehrpläne integrieren. „Lernende müssen wissen, wann sie KI-Unterstützung in Anspruch nehmen und wann sie selbstständig analysieren sollten. Sie müssen lernen, KI intelligent einzusetzen, um ihr Denkvermögen zu fördern, anstatt Abkürzungen zu nehmen und das Training des Gehirns zu vernachlässigen“, betonte Herr Tung.
Datenleck
Laut dem Telegraph tauchten über 500 private ChatGPT-Konversationen mit sensiblen Informationen wie internen Diskussionen, Betrugsfällen, Plänen für Cyberangriffe und Fragen von Ärzten und Anwälten in den Google-Suchergebnissen auf. Der Forscher Henk van Ess gab an, dass weitere rund 110.000 Konversationen in der Wayback Machine – dem Webarchivierungstool des Internet Archive – gespeichert seien. Experten warnten davor, dass dieses Datenleck von Cyberkriminellen ausgenutzt werden könnte. Nutzer sollten keine vertraulichen Daten mit KI teilen und forderten die Entwickler auf, die Sicherheitsvorkehrungen zu verstärken, um ähnliche Vorfälle zu verhindern.
Quelle: https://nld.com.vn/le-thuoc-hay-dung-ai-thong-minh-196250816202226394.htm










Kommentar (0)