Der KI-Agent ermittelt!
So einfach kann es sein, eine Forschungsarbeit oder einen Bericht zu schreiben: Man gibt ChatGPT einen „Prompt“, also eine Anweisung mit der Fragestellung, und lässt das Tool selbstständig im Netz recherchieren – zur aktuellen Marktentwicklung von Elektroautos, zur Fortpflanzung von Geckos im südlichen Afrika, zu welchem Thema auch immer. In wenigen Minuten hat man einen Text, für den man sonst Stunden oder Tage gebraucht hätte. In der Zwischenzeit kann man einen Kaffee trinken gehen – oder dem Tool bei der Arbeit zuschauen.
Deep Research heißt die neue Funktion von ChatGPT, die vorerst nur Pro-Abonnenten (200 Dollar pro Monat) zur Verfügung steht. Das Tool kann Wissen aus Hunderten von Websites auswerten und liefert eine Dokumentation mit allen Quellenangaben. Die Anwendungen reichen von der personalisierten Suche nach Reisezielen bis zur rechercheintensiven Wissensarbeit.
Die Ergebnisse sind beeindruckend und meist zuverlässig, wie viele Tester berichten. Zwar produziert auch Deep Research, wie jede Sprachmodellanwendung, gelegentlich Unsinn. Doch solche Ausfälle stehen in keinem Verhältnis zum Nutzen. Denn aufwendige Netzrecherchen sind für Wissensarbeit unverzichtbar. Deep Research spart schlicht Zeit und intellektuelle Anstrengung – schon deshalb ist es in den Augen vieler sein Geld wert.
Kein Wunder also, dass inzwischen auch andere Anbieter solche Recherchewerkzeuge anbieten. Die KI-Suchmaschine Perplexity oder das neue Modell Grok 3 von Elon Musks KI-Firma xAI verfügen ebenfalls über entsprechende Funktionen, die Tester bislang weniger überzeugten als Deep Research. Auch Google bietet ein ähnliches Werkzeug für Gemini-Abonnenten. Im Trend zu Research-Tools laufen drei aktuelle KI-Entwicklungen zusammen.
Erstens der Trend zu sogenannten Agenten-Systemen. Agenten sind KI-Anwendungen, die selbstständig ein Ziel verfolgen, indem sie auf neue Informationen reagieren und dabei die ihnen zur Verfügung stehenden Mittel nutzen. Erste KI-Agenten können heute schon im Netz Bestellungen aufgeben, einen Flug buchen – oder eben Recherchen wie Deep Research durchführen.
Zweitens: die sogenannten „Reasoning“-Fähigkeiten heutiger KI-Sprachmodelle. Neuere Modelle wie o1 und o3 von OpenAI oder auch R1 des chinesischen Start-ups Deepseek investieren mehr Rechenzeit in die „Inferenz“, also die Anwendung ihres gelernten Wissens. Sie „denken“ sozusagen länger über die jeweilige Aufgabe nach („reasoning“). So können Agenten wie Deep Research beispielsweise Probleme in kleinere logische Schritte zerlegen.
Drittens: der Trend zu KI-Anwendungen, die einen echten Mehrwert am Arbeitsplatz bieten, indem sie uns produktiver machen. Die Vorteile von Deep Research & Co liegen auf der Hand. Nie mehr stundenlang recherchieren, nie mehr umständlich nachdenken, nie mehr ellenlange, langweilige Berichte schreiben – alles erledigt der Agent.
Effizienter geht es nicht. Das Versprechen von Agenten wie Deep Research ist die vollständige Automatisierung menschlicher Arbeitsprozesse: Wenn Deep Research in fünf Minuten eine Marktanalyse schreiben kann, für die ein professioneller Analyst zwei Tage braucht, dann verändert das die Arbeit grundlegend.
Autonome KI-Agenten können aber auch Probleme aufwerfen. Was ist, wenn der Agent nicht das tut, was wir von ihm wollen? Wenn Agenten dazu benutzt werden, Desinformation und Propaganda zu verbreiten? Und kann es sein, dass wir durch KI-Agenten nur dümmer statt klüger werden?
Es ist davon auszugehen, dass KI-Tools wie Deep Research sehr schnell in die Wissensarbeit eindringen – und zum Beispiel eingesetzt werden, um massenhaft wissenschaftliche Artikel zu generieren. Das könnte bald zu einem Problem für die Forschung werden.
Schon heute verlassen sich viele Menschen auf KI, ohne die Ergebnisse zu hinterfragen. Das kann das kritische Denken beeinträchtigen, wie eine aktuelle Studie von Microsoft Research zeigt. KI-Agenten können uns zwar alle möglichen Aufgaben abnehmen. Aber wenn wir Menschen nicht kritisch bleiben, werden die Agenten am Ende das tun, was sie für richtig halten – und nicht wir.