Zu erleben, wie Menschen ihr kritisches Denken, ihre Emotionen und ihre Gelassenheit fehlerhaften KI-Chatbots anvertrauen, ist in den letzten Jahren zu einem der beängstigendsten Aspekte des modernen Lebens geworden.
Wohlhabende „Tech-Evangelisten“ wie Sam Altman stellen ständig kühne Behauptungen darüber auf, wie große Sprachmodelle (LLMs) unsere Jobs und die Kindererziehung ersetzen werden.

Langsames LLM führt dazu, dass Chatbots im Schneckentempo arbeiten, was ein frustrierendes Nutzererlebnis zur Folge hat.
Kritiker vergleichen die Abhängigkeit von Chatbots jedoch mit dem Versuch, die Menschen davon zu überzeugen, dass es ihnen tatsächlich besser gehe, wenn Maschinen für sie denken, handeln und erschaffen.
Nun gibt es eine neue Möglichkeit, Freunde, Familie und sogar Fremde davon abzuhalten, auf Chatbots wie Claude und ChatGPT umzusteigen: Man verwendet ein Tool namens „Slow LLM“, um sie extrem, extrem, extrem langsam zu machen.
„Haben Sie Angst, dass Sie oder ein Angehöriger an einem Massenverlust von Fähigkeiten beteiligt sind? Erleben Sie durch LLM hervorgerufene psychotische Zustände? Überlassen Sie kognitive und emotionale Funktionen der automatischen Vervollständigung? Installieren Sie SLOW LLM noch heute auf Ihrem Computer oder dem Computer eines Angehörigen!“ – so die Beschreibung auf der Website des Tools.
Slow LLM wurde von dem Künstler Sam Lavigne entwickelt und führt dazu, dass jeder, der über einen Computer oder ein Netzwerk auf einen KI-Chatbot zugreift, auf mysteriöse Weise langsame und frustrierende Reaktionszeiten erlebt.

SlowLLM entstand aus der Frustration des Schöpfers darüber, dass Schüler und ihre Angehörigen immer abhängiger von KI-Chatbots wurden.
Dieses Tool nutzt eine Funktion der JavaScript-Sprache, um die „Fetch“-Funktion, die Daten an den Browser zurückgibt, umzuschreiben. Wenn ein Benutzer auf die Domain eines Chatbots zugreift und eine Frage eingibt, verlängert die modifizierte Fetch-Funktion die Antwortzeit extrem.
Daher empfinden die Benutzer LLM als langsam, obwohl es in Wirklichkeit einfach Lavignes Code ist, der es absichtlich verlangsamt.
Lavigne sagte, die Idee zu dem Projekt sei entstanden, nachdem er miterlebt hatte, wie einige seiner Studenten und Bekannten zunehmend auf generative Werkzeuge angewiesen waren, um grundlegende Aufgaben zu erledigen.
„Viele Menschen beginnen, diese Hilfsmittel zu nutzen, um ihre kognitiven und emotionalen Funktionen zu vernachlässigen, und vergessen dabei die Grundlagen, die sie einst noch beherrschten“, teilte Lavigne mit.
Slow LLM kann als Chrome-Browsererweiterung installiert, aber auch über die „Enterprise Edition“ im gesamten Netzwerk eingesetzt werden. Der DNS-Dienst führt dazu, dass alle Nutzer im Heim-, Schul- oder Firmennetzwerk langsame Chatbot-Antworten erhalten.
Dazu muss lediglich der DNS-Server auf dem Router auf Lavignes benutzerdefinierten Domainnamen geändert werden, den er kostenlos auf GitHub veröffentlicht hat.
Die Browsererweiterung betrifft derzeit nur Claude und ChatGPT, während die DNS-Version auch Grok und Google Gemini verlangsamt.
Theoretisch könnte jemand Slow LLM aktivieren, ohne dass es jemand bemerkt. Die meisten würden wohl annehmen, dass Chatbot-Anbieter wie Google und OpenAI technische Probleme haben, die gelegentlich auch ohne äußeres Zutun auftreten.
Lavigne sagte, ihm sei bisher noch niemand bekannt, der Slow LLM erfolgreich in einem Firmen- oder Schulnetzwerk implementiert habe. Er rät aber auch nicht davon ab, damit zu experimentieren.
„Ich habe es noch nicht an unbekannten Personen getestet, aber ich ziehe es in Betracht“, sagte Lavigne scherzhaft und deutete an, dass es ein interessantes Experiment wäre, zu sehen, wie Menschen auf einen künstlich verlangsamten Chatbot reagieren.
„Sie könnten verärgert sein und LLM nicht mehr nutzen.“ Slow LLM ist die neueste Ergänzung zu der Reihe skurriler Technikprojekte, für die Lavigne bekannt ist.
Während der Covid-Pandemie veröffentlichte er "Zoom Escaper" – ein Tool, das den Ton in Zoom-Meetings durch Echos, Verzerrungen und nervige Unterbrechungen so stark störte, dass die anderen Teilnehmer die Anwesenheit des Nutzers nicht mehr ertragen konnten.

Sam Lavigne und seine Kollegen entwickeln oft skurrile Werkzeuge, um die Menschen für ihre Abhängigkeit von Maschinen zu sensibilisieren.
Im Jahr 2018 sorgte er für Kontroversen, als er öffentlich zugängliche LinkedIn-Profildaten sammelte, um eine große Datenbank von ICE-Agenten aufzubauen, die später von Plattformen wie Github und Medium entfernt wurde.
Lavignes häufiger Mitarbeiter, Tega Brain, veröffentlichte auch Browser-Tools wie "Slop Evader", die KI-generierte Inhalte herausfilterten, indem sie alle Suchergebnisse nach November 2022 entfernten, dem Datum, an dem ChatGPT erstmals der Öffentlichkeit zugänglich gemacht wurde.
Lavigne war jedoch kein Extremist. Er gab zu, Claude bei der Entwicklung des Codes für Slow LLM eingesetzt zu haben, bis Slow LLM betriebsbereit war und ihn zwang, das Projekt allein fertigzustellen.
Stattdessen wolle er, so Lavigne, die Menschen dazu anregen, die Gewohnheiten zu hinterfragen, die durch den häufigen Gebrauch von Chatbots entstanden sind – Werkzeuge, die es uns leicht machen, unser gesamtes Wissen, unsere Entscheidungen und unsere Emotionen riesigen Konzernen anzuvertrauen, die von Tech-Milliardären wie Altman und Elon Musk geführt werden.
Quelle: https://khoahocdoisong.vn/cong-cu-lam-cham-chatbot-ai-den-muc-rua-bo-nham-bot-phu-thuoc-post2149093996.html






Kommentar (0)