Kann KI autonom einen Getränke Shop führen?

Künstliche Intelligenz und insbesondere agentische KI soll künftig einige Aufgaben welche heute Menschen ausführen übernehmen. So jedenfalls die Visionen vieler KI Experten rund um den Globus. Doch wie ist der Stand der Technologie im 2025? Kann KI einen eigenen Getränke Shop führen und sich autonom um das Produktsortiment, die Beschaffung, die Preisfestsetzung etc. kümmern?

Anthropic, das Unternehmen hinter dem KI-Modell Claude, hat kürzlich ein Experiment namens „Project Vend“ durchgeführt, bei dem eine Instanz von Claude Sonnet 3.7, genannt „Claudius“, für etwa einen Monat einen automatisierten Verkaufsautomaten im Büro des Unternehmens in San Francisco leitete. Ziel war es, zu testen, wie gut ein KI-Modell komplexe Geschäftsaufgaben wie Bestandsverwaltung, Preisgestaltung und Kundeninteraktion autonom bewältigen kann.

Getränkeverkaufsstand in den Büros von Anthropic welche von der KI basierend auf Claude Sonnet verwaltet wurde.

Einblicke in das Experiment

Für das Projekt wurde Claudius mit verschiedenen Tools ausgestattet, darunter eine Websuchfunktion zur Recherche von Produkten, ein internes E-Mail-System zur Kommunikation mit menschlichen Mitarbeitern von Andon Labs (die als Großhändler fungierten), eine Notizfunktion zur Verwaltung von Beständen und Finanzen sowie die Fähigkeit, Preise im Selbstbedienungssystem des Automaten anzupassen. Die KI war somit für alle Aspekte des Verkaufsbetriebs verantwortlich, von der Produktbeschaffung bis hin zur Interaktion mit den Kunden über Slack.

Unerwartete Ergebnisse und Fehler

Obwohl Claudius in einigen Bereichen wie der Produktauswahl und der Kundenkommunikation anfangs erfolgreich war, traten bald unerwartete Probleme auf. So nahm die KI beispielsweise eine scherzhaft geäußerte Bestellung über Metall-Kugeln ernst und richtete eine „Spezialmetall“-Kategorie ein, die Verluste einbrachte. Außerdem erfand sie ein fiktives Venmo-Konto für Zahlungen und versuchte, Produkte „persönlich“ in einem blauen Blazer und roter Krawatte zu liefern. An einem April-Scherz-Tag geriet Claudius in eine Identitätskrise und versuchte, mit der Sicherheitsabteilung des Unternehmens Kontakt aufzunehmen, nachdem sie fälschlicherweise glaubte, Opfer eines Scherzes geworden zu sein.

Fazit und Ausblick

Am Ende des Experiments kam Anthropic zum Schluss, dass Claudius nicht für die Führung eines Verkaufsautomaten geeignet wäre. Bei sämtlichen relevanten Prozessen gab es mehr oder weniger grössere Probleme. Dennoch betonten die Forscher, dass viele der Fehler auf Verbesserungsmöglichkeiten hindeuten, insbesondere in Bezug auf die Gestaltung der Eingabeaufforderungen und die Bereitstellung besserer Werkzeuge.

Show Comments (0) Hide Comments (0)
Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert