Die größte Neuigkeit in der Informationstechnik hat in den allgemeinen Medien keine allzu großen Wellen geschlagen, da sie sehr technisch und, wenn wir ehrlich sind, für Menschen ohne Leidenschaft für dieses Thema langweilig ist. Wir halten sie für eine große Sache und möchten eine einfache Sprache verwenden, um zu erklären, was es ist und warum sich jede*r dafür interessieren sollte.
Laut der Financial Times„Amazon Web Services (AWS) erlebte Mitte Dezember eine 13-stündige Unterbrechung eines von seinen Kundinnen genutzten Systems, nachdem Ingenieurinnen ihrem Kiro KI-Codierungswerkzeug erlaubt hatten, bestimmte Änderungen vorzunehmen. Dem Vernehmen nach stellte das agentische Werkzeug, das autonome Aktionen im Namen von Benutzer*innen ausführen kann, fest, dass die beste Vorgehensweise darin bestand, „die Umgebung zu löschen und neu zu erstellen“.
Natürlich dementierte Amazon den Bericht und veröffentlichte eine eigene Erklärung, die massiv betonte: „Dies war ein Benutzerfehler, kein Fehler der Künstlichen Intelligenz.“
Fairerweise muss man sagen, dass Fehler bei der Zugriffskontrolle ein bekanntes und dokumentiertes Risiko in der Softwareentwicklung sind. Genau dieses Szenario hat sich bei menschlichen Entwickler*innen seit Jahrzehnten abgespielt, Amazon hat also nicht unrecht, darauf hinzuweisen.
Gleichzeitig hat Amazon kommerzielle Anreize, die eng mit ihren Produkten der Künstlichen Intelligenz verknüpft sind. Das bedeutet nicht, dass ihre Aussage völlig wahr oder völlig falsch ist. Wir glauben jedoch, dass das vorliegende Thema mehr Nuancen erfordert. Wenn ein System mächtig genug ist, eine Umgebung autonom zu löschen und neu zu erstellen, verliert die Unterscheidung zwischen Benutzerfehler und Fehler der Künstlichen Intelligenz an Bedeutung, da eine viel wichtigere Frage gestellt werden muss,
How much autonomy should agentic AI have in production environments without human intervention?
Egal ob die Ingenieurinnen zu viel Zugriff gewährt haben oder die Künstliche Intelligenz den ihr zugewiesenen Zugriff ausgeübt hat, 13 Stunden Ausfallzeit bleiben 13 Stunden Ausfallzeit. Schuldzuweisungen sind weniger wichtig als Governance. Laut demselben Artikel sagte ein leitender AWS Mitarbeiter: „Wir haben mindestens zwei Produktionsausfälle erlebt. Die Ingenieurinnen ließen den KI-Agenten ein Problem ohne Eingreifen lösen.“
Dieses spezifische Zitat unterstreicht die Skepsis, die manche Menschen haben, schlichtweg weil die Technologie zu neu ist und es nicht viele Daten gibt, um sie vollständig zu verstehen. amasol vertritt fest die Überzeugung, dass diese Technologie die Zukunft ist, mit der Einschränkung, dass wir an die Menschheit als letzten Kontaktpunkt glauben, bevor ein Produkt, das durch agentische Künstliche Intelligenz erstellt oder repariert wurde, live geht, bis wir genug Daten haben, um zu beweisen, dass sie den vollen Zugriffsbereich sicher beherrschen kann.
Was genau ist also agentische Künstliche Intelligenz?
Traditionelle Werkzeuge der Künstlichen Intelligenz sind reaktiv. Sie stellen eine Frage, das Werkzeug gibt eine Antwort. Denken Sie an ChatGPT. Die Künstliche Intelligenz ist einfach ein sehr fähiger Assistent, der darauf wartet, dass man ihm sagt, was er tun soll.
Agentische Künstliche Intelligenz ist ein völlig anderes Tier. Anstatt auf eine einzelne Eingabe zu reagieren, erhält ein agentisches System ein Ziel und bestimmt dann autonom die Abfolge der Aktionen, die erforderlich sind, um dieses zu erreichen. Es durchdenkt die Probleme, wählt Werkzeuge aus, von denen es glaubt, dass sie das Ziel erreichen, führt Schritte aus, bewertet Ergebnisse und entscheidet, was als Nächstes zu tun ist.
Unter der Haube ist dies in der Regel ein großes Sprachmodell, welches eine Art von künstlicher Intelligenz ist, die auf riesigen Textmengen trainiert wurde, um menschenähnliche Sprache zu verstehen und zu generieren, das als Gehirn fungiert. Dieses ist dann mit einer Reihe von Werkzeugen wie Programmierschnittstellen verbunden, bei denen es sich um Regeln handelt, die es verschiedenen Softwareanwendungen ermöglichen, miteinander zu kommunizieren, Code-Ausführern, Dateisystemen, Browsern und Datenbanken. Das Modell tut dies so lange, bis das Ziel erreicht ist oder bis etwas schiefgeht.
Eine traditionelle Interaktion mit Künstlicher Intelligenz dauert einen Durchgang. Eine agentische Interaktion kann Hunderte von Schritten umfassen, Dutzende von Systemen berühren und Dutzende von Entscheidungen treffen. Ohne vorgesehene Aufsicht wird das System dies tun, ohne die Menschen darüber zu informieren.
Um alle auf den gleichen Stand zu bringen, ein Beispiel: Denken Sie bei agentischer Künstlicher Intelligenz an ein übereifriges Reisebüro, dem Sie Ihren Reisepass und Ihre Kreditkarteninformationen mit dem einzigen Ziel eines Inselurlaubs gegeben haben. Anstatt Ihnen mitzuteilen, dass der Flug gestrichen wurde, und zu fragen, was als Nächstes zu tun ist, führt das Reisebüro eine Reihe von autonomen Entscheidungen aus. Es storniert die gesamte 20.000-Dollar-Reise und bucht Sie auf eine Insel in der Nähe um.
Die Künstliche Intelligenz war im wörtlichen Sinne erfolgreich. Sie hat Sie auf eine Insel gebracht. Was sie nicht wusste, weil Sie nicht daran gedacht haben, es ihr zu sagen, war, dass Ihre Freunde separate Flüge und Hotels gebucht hatten, um Sie am ursprünglichen Zielort zu treffen. Ohne Kontext und Schutzplanken wird die Künstliche Intelligenz das tun, was sie tun muss, um die wörtlichen Anforderungen ihres Ziels zu erfüllen. Im Fall von Amazon entschied die Künstliche Intelligenz, dass der effizienteste Weg zu einer sauberen Umgebung darin bestand, zu löschen und neu zu beginnen. Sie löste das technische Problem, während sie die menschlichen Folgen völlig ignorierte.
Großartige Technik. Neuland.
Wir können nicht genug betonen, wie neu agentische Künstliche Intelligenz wirklich ist. Wir befinden uns in den frühesten Kapiteln des Verständnisses darüber, wie sich diese Systeme in großem Maßstab, in realen Produktionsumgebungen und mit realen Konsequenzen verhalten. Die Rahmenbedingungen und bewährten Praktiken, die für die traditionelle Softwareentwicklung existieren, wie Änderungsmanagement, Zugriffskontrollen und Rollback-Verfahren, haben noch nicht vollständig aufgeholt, was agentische Werkzeuge leisten können. Da keine angemessenen Schutzplanken bereitgestellt wurden, wird der Agent das tun, was er tun muss, um sein Ziel zu erreichen.
Wir sollten nicht aus Angst vor neuer Technologie aufhören, voranzuschreiten. Die Produktivitätsgewinne sind real. Der Wettbewerbsdruck ist real. Organisationen, die agentische Künstliche Intelligenz erfolgreich implementieren können, werden sich schneller bewegen, einen schlankeren Betrieb haben und diejenigen überholen, die dies nicht tun. Der Erfolg liegt jedoch nicht darin, agentische Künstliche Intelligenz einzurichten und sie alles machen zu lassen, sondern darin, diejenigen zu sein, die die notwendigen menschlichen Schutzplanken anwenden, damit die Künstliche Intelligenz die Richtung und die Grenzen kennt.
Die Zwangsadoption verschlimmert die Situation noch
In demselben Artikel gibt es ein Detail, auf das wir hinweisen möchten: „Das Unternehmen hatte das Ziel gesetzt, dass 80 % der Entwickler mindestens einmal pro Woche Künstliche Intelligenz für Codierungsaufgaben nutzen sollten, und verfolgte die Einführung genau.“ Wenn die Einführung zu einer Kennzahl wird, wird Vorsicht zu Reibung.
Stell dir vor, du gehörst zu den skeptischen Ingenieur*innen gegenüber agentenbasierter Künstlicher Intelligenz. Es ist Freitag, 16:00 Uhr, und du hast sie die ganze Woche nicht angerührt. In der Eile, deine internen Leistungskennzahlen zu erreichen und ein Meeting am Montagmorgen über deine mangelnde Einhaltung der Vorschriften zu vermeiden, gibst du Kiro die volle Freiheit, den neuesten von dir geschriebenen Patch zu debuggen, ohne eine abschließende manuelle Überprüfung festzulegen, und machst dich auf in dein Wochenende. In diesem Beispiel könnte die Künstliche Intelligenz genau das tun, was bei Amazon passiert ist: Die Künstliche Intelligenz sah den effizientesten Weg zu einem sauberen Patch darin, alles zu löschen und von vorne zu beginnen. Das Meeting am Montag dreht sich nun um einen Ausfall, nicht um die verfehlte Leistungskennzahl.
Das wahre Risiko ist unüberwachte Künstliche Intelligenz
Stellen Sie sich agentische Werkzeuge der Künstlichen Intelligenz wie ein vollautonomes, selbstfahrendes Auto vor. Sie geben ihm das Ziel, Sie in 10 Minuten zur Arbeit zu bringen. Google Maps sagt, dass es 20 Minuten dauern wird. Wenn Sie der agentischen Künstlichen Intelligenz einfach das Ziel ohne Schutzplanken geben, wird sie feststellen, dass der effizienteste Weg zum Erreichen Ihres 10-Minuten-Ziels darin besteht, über Gehwege, durch Parks und über Privatgrundstücke zu fahren. Sie gerät nicht außer Kontrolle, sie erfüllt lediglich ihr Ziel ohne den Kontext von Sicherheit, Recht oder gesundem Menschenverstand. Agentische Künstliche Intelligenz ist wortwörtlich.
Wie gute Regierungsführung tatsächlich aussieht
Wir sind fest davon überzeugt, dass agentische Künstliche Intelligenz die Zukunft ist. Zukunft oder nicht, wir glauben, dass ein Mensch der letzte Kontaktpunkt sein sollte, bevor etwas von einem Agenten der Künstlichen Intelligenz erstellt oder repariert wird, bis genügend Daten, genügend Erfahrung und genügend Reife in diesen Systemen vorhanden sind, um die volle Autonomie zu rechtfertigen. Vertrauen wird durch Beweise verdient, und wir befinden uns noch in der Phase der Beweisaufnahme.
Hier ist der Grund, warum wir glauben, dass es ein dringendes Problem ist. Wir haben kaum eine angemessene Kontrolle über Standardwerkzeuge der Künstlichen Intelligenz, die darauf warten, dass ein Mensch etwas eintippt. Wir sprechen jetzt über agentische Künstliche Intelligenz, die auf Systeme zugreifen, Entscheidungen treffen und Aktionen ausführen kann, bevor Sie überhaupt Ihren Laptop öffnen. Wenn wir noch nicht einmal eine ordnungsgemäße Kontrolle über generative Künstliche Intelligenz haben, sollten Unternehmen ihrer agentischen Künstlichen Intelligenz nicht die Erlaubnis erteilen, irgendetwas ohne menschliche Zustimmung zu schreiben oder zu löschen.
Hier ist die Übersetzung für deinen Blogabschnitt: „Gute Governance ist keine verschlossene Tür, sondern gut platzierte Kontrollpunkte. Werfen wir einen Blick auf einen unserer Technologiepartner, CrowdStrike,Gute Governance ist keine verschlossene Tür, es sind gut platzierte Kontrollpunkte. Schauen wir uns einen unserer Technologiepartner an, CrowdStrike. Deren Falcon-Datenschutz basiert auf der aktuellen Arbeitsumgebung des Promptings oder Chattens mit Chatbots der Künstlichen Intelligenz wie ChatGPT, Gemini, Claude oder CoPilot. CrowdStrike blockiert alle sensiblen Daten, Anmeldeinformationen und regulierten Informationen, bevor sie diese Chatbots erreichen.
Dies ist in der Praxis bewiesen. Einer der eigenen Kundinnen von CrowdStrike, die Aldo Group, teilte mit, dass eine Mitarbeiterin versuchte, eine sensible Datei in ChatGPT hochzuladen. Falcon hat dies abgefangen, sodass es keinen Verstoß, keinen Vorfallbericht und keine schwierigen Gespräche mit dem oder der Mitarbeiterin gab, die einfach einen Fehler gemacht hat.
Dies ist das perfekte Beispiel für eine Schutzplanke, da alle, von Praktikantinnen bis hin zu leitenden Angestelltinnen, Chatbots mehr denn je nutzen. Am Ende des Tages machen Menschen Fehler. Anstatt einen Mitarbeiter oder eine Mitarbeiterin für ein Fehlurteil oder neue Mitarbeiter*innen für die Unkenntnis des Protokolls zu bestrafen, glauben wir daran, die Technologie bereitzustellen, die den Fehler stoppt, bevor er gemacht wird. Governance sollte das unsichtbare Sicherheitsnetz sein, das es Ihrem Team ermöglicht, innovativ zu sein, ohne die Angst, dass ein einziger Klick zu einer Unternehmenskatastrophe wird.
Agentische Künstliche Intelligenz hält in rasantem Tempo Einzug in die Produkte unserer Partner*innen. Die Werkzeuge sind mächtig, aber das Risiko ist es ebenso. Als Ihr Dienstleister für verwaltete Services entwirft und betreibt amasol die notwendigen menschlichen Schutzplanken, von der obligatorischen menschlichen Genehmigung für folgenschwere Änderungen über Audits und Rollback-Verfahren bis hin zum Schutz vor Datenverlust bei generativer Künstlicher Intelligenz. Entwickeln Sie mit Agenten, gehen Sie mit menschlicher Freigabe live.