Trotz KI: Thomas, Susanne und Jörg bleiben. Nur Kevin muss sich Sorgen machen

Thomas ist der Chef. Er hat sich seit Jahren hochgearbeitet und ist seit sechs Jahren der Entscheider. Für ein großes Projekt benötigt er bis morgen Informationen. Er ruft Susanne an, mit der er schon seit einer Weile sehr vertrauensvoll zusammenarbeitet und sich darauf verlassen kann, dass sie die gewünschten Informationen akkurat, korrekt und verständlich liefert. Wie meistens hat Thomas keine Zeit. Er wirft Susanne nur ein paar Stichworte hin. Aber weil Susanne schon so gut mit ihm zusammengearbeitet hat, weiß sie ziemlich genau, was er will und wie er es benötigt.

Susanne überlegt, sucht ein paar Informationen heraus, benötigt aber Unterstützung aus der Fachabteilung. Dort ruft sie Jörg an. Jörg ist der unumstrittene Experte für das, was sie benötigt. Sie kommt in sein Büro, beginnt zu erklären, dass Thomas etwas braucht, aber Jörg unterbricht sie schon sehr schnell und sagt: “Ja, ja, ich weiß genau, was er braucht, ich mache es dir fertig und wie möchtest du es haben, in welchem Format?” Ein paar Stunden später bekommt Susanne die Informationen, bereitet sie noch ein wenig auf und schickt sie an Thomas zurück.

Thomas kann sich darauf verlassen, dass sowohl Susanne als auch Jörg genau wissen, wovon sie sprechen. Er braucht die Daten und die Informationen nur kurz anzuschauen, sie zu überfliegen, in seine PowerPoint-Präsentation zu kopieren und geht morgen in sein wichtiges Meeting. Das ist ein ganz normaler Vorgang, der überall und ständig passiert.

Was passiert nun, wenn KI dazu kommt? Sind alle Beteiligten gefährdet, bald arbeitslos? Natürlich könnte man sagen, dass jetzt künstliche Agenten und Large Language Models alles übernehmen. Aber genau so will ich diese Geschichte eben nicht erzählen.

Für viele, die sich in ihrem Fach nicht richtig auskennen oder die etwas Neues lernen wollen, sind die Ergebnisse der KI-Generierung pure Magie. Schon das erste Ergebnis einer ChatGPT-Eingabe liest sich beeindruckend. Doch wie funktioniert das überhaupt? Deswegen habe ich mit dem Beispiel von Thomas, Susanne und Jörg gestartet. Das sind nämlich nichts anderes alsmenschliche Agenten und Large Language Models.

In unserem Fall ist Thomas der Mensch, der die Informationen braucht, um Entscheidungen mit großer Reichweite zu treffen. Er ist dafür verantwortlich, wenn die Entscheidung gut war oder auch nicht. In Zeiten der künstlichen Intelligenz wird es den Thomas immer geben. Denn eine Maschine wird nie verantwortlich sein für die Entscheidung und schon gar nicht wird es für die weitreichenden Konsequenzen haften können. Wie denn auch, ich habe noch keine Maschine hinter Gittern im Gefängnis gesehen.

Momentan verlässt sich Thomas auf Susanne. Und das ist gut so. Denn er vertraut ihr. Er weiß, dass sie liefert. Susanne kann ein Projektmanager sein, ein mittlerer Manager, eine Assistentin oder was auch immer. Wer solch gute Mitarbeiterinnen hat wie Susanne, kann sich auf sie verlassen. Würde Thomas nur ein paar Stichworte an Kevin geben, der erst vor zwei Monaten als Praktikant angefangen hat, würde er seine Informationen nie bekommen. Obwohl Kevin superschlau ist und überall Klassenbester war. Kevin hat wenig Erfahrung und nur begrenzte Menschenkenntnisse, wüsste überhaupt nicht, was Thomas von ihm wollte. Außerdem würde er Jörg ziemlich unterschätzen, weil Kevin glaubt, jetzt schon alles besser zu wissen. Erst im Alter merkt man, dass es so viel gibt, was man nie mehr lernen wird.

In unserem Fall ist Susanne eine Art AI-Agent. Sie schaut sich an, was Thomas braucht, übersetzt es für sich und überlegt dann, wo sie es bekommen kann und wer ihr helfen kann. Sie versteht den Kontext. Und das ist das Allerwichtigste für die künstliche Intelligenz. Ohne Kontext kann das alles nicht funktionieren. Aber ohne Kontext kann das auch in einem normalen Unternehmen nicht funktionieren. Sie weiß also, wo sie die Informationen bekommt. Manche Informationen findet sie von selbst. Würde Susanne in einem RAG (Retrieval Augmented Generation)-System arbeiten, wäre sie der “Retriever” und auch der “Generator”.

Jörg ist in unserem Beispiel ein gut trainiertesLarge Language Model. So wie ChatGPT, Claude, aber auch sehr spezielle Modelle, die man frei herunterladen und auf dem eigenen Rechner laufen. Jörg wäre eher ein lokales Modell, auf das sonst keiner Zugriffe hat. Er hat sein Large Language Modell über 30 Jahre mit Wissen und Erfahrungen angefüttert. Er kennt sich perfekt aus. Er ist kein guter Handwerker, muss wahrscheinlich einen Elektriker bestellen, wenn er eine Steckdose wechseln will. Aber in seinem Fachgebiet kennt er sich perfekt aus.

Und nicht nur das, Jörg kennt sich nicht nur in seinem Fachgebiet aus, sondern er ist auch in der Lage, das für sein Geschäft zu übertragen. Denn das Unternehmen benötigt das Fachwissen von Jörg, um damit Produkte zu erstellen oder andere Dinge zu entwickeln. Als Experte hat Jörg alles schon gesehen und gehört. Er besucht alle Konferenzen, liest alle Fachpapiere, er kennt sich einfach aus. Und eigentlich ist das Leben in dem Unternehmen super für ihn, weil die meisten Anfragen ziemlich trivial sind.

Wenn Susanne in sein Büro kommt und die Frage stellt, leuchten bei ihm die ganzen Synapsen im Kopf auf und er weiß sofort, was sie benötigt. Das ist seine Erfahrung, das hat er sich antrainiert, er bleibt dran. Er ist also ein sehr wertvolles Large Language Modell für sein Unternehmen. Er braucht noch nicht einmal ChatGPT dafür, weil ChatGPT zwar auch dieses Fachwissen hat, aber er hat einfach weitaus mehr Wissen als das generische ChatGPT, das ja das Wissen von allen Experten zusammengesammelt hat. Jörg weiß ganz genau, was relevant und was wichtig ist. Das ist sein Wert und sein Wert wird immer so bleiben, zumindest Thomas sein Chef ist. Sollte es einmal Kevin sein, wird es schwierig. Kevin setzt wahrscheinlich lieber auf neue Technologien und Trends.

Manchmal schaut Jörg sogar in ChatGPT und findet neue Aspekte, über die er dann weiter nachdenken kann. Er trainiert also sein Modell weiter. Wenn Susanne mit ihrer Fragen anfängt, dann rattert es in seinem Kopf. Und sie braucht die Frage gar nicht zu beenden. Er kommt schon jetzt auf eine Antwort. Und auch das ist das Merkmal von Large Language Models. Weil die so viel wissen, ist es für Jörg ganz einfach, zu wissen, was wohl als nächstes kommt. Dann kann er sein Wissen zusammensuchen und es Susanne entweder in einer großen Liste geben oder er erstellt daraus eine Art heruntergedampftes Papier, was dann auch der Thomas versteht, in dem dann eben ein Summary drinsteht und die wichtigsten Daten.

Das hat für Jörg in der Vergangenheit sehr viel Zeit gebraucht, aber jetzt kann er die künstliche Intelligenz nehmen, um das schneller und akkurater zu machen. Er ist nicht unbedingt der große Schreiber, aber dabei hilft ihm die künstliche Intelligenz. Er benutzt einfach ein anderes Modell dafür. Aber er ist das Hauptmodell und er wird es bleiben. Susanne nimmt nun alles auf, checkt es nochmal, guckt, ob Jörg, der manchmal trotz seiner Fachlichkeit ein wenig schlampig ist, ein schlampiges Genie eben, alles richtig gemacht hat, ob die Kommas richtig sitzen und ob das konsistent ist. Denn das ist auch ihre Aufgabe als Assistentin und als AI-Assistent und gibt es zurück an Thomas.

Thomas freut sich, das ging recht schnell und es war genau das, was er braucht. Ich rede nicht davon, dass Thomas jetzt nur noch mit AI-Agenten oder mit ChatGPT und so arbeitet. Er hätte das nie herausgefunden, weil zum Beispiel viele Daten, die Jörg präsentiert hat, gar nicht in ChatGPT drin sind, sondern in anderen Datenbanken oder das Intranet, worauf nur Jörg Zugriff hat.

Aber aus diesem Beispiel wird doch schon klar, dass an vielen Stellen im Unternehmen die Prozesse schneller werden können. An vielen Stellen kann AI aus Text und Daten und Ideen Wissen machen und das dann so vorbereiten, dass die Menschen, die weiterhin immer die Impulsgeber und Entscheider bleiben, am Steuer sitzen - aber nur, wenn sie genau verstehen, was die AI kann und was weiterhin Jörg machen sollte.