STUDIE
Technology Vision 2024
January 09, 2024
STUDIE
January 09, 2024
In den kommenden Jahren werden zahlreiche neue Technologien zur Verfügung stehen, mit denen Unternehmen die Potenziale ihrer Mitarbeitenden deutlich steigern können. Unternehmen, die dies bereits heute erfolgreich nutzen, weisen zudem eine höhere Produktivität und Kreativität auf. Der Wettlauf zum Aufbau neuer Fähigkeiten und neuen Arten der Wertschöpfung hat begonnen. Wenngleich sich die individuellen Strategien unterscheiden können, haben sie eine gemeinsame Grundlage: Neue Technologien stellen ihre Nutzer:innen in den Mittelpunkt.
Das mag widersprüchlich klingen: Wird die Technologie nicht von und für Menschen entwickelt? Werkzeuge zu erfinden, um unsere körperlichen und geistigen Fähigkeiten zu erweitern, ist so einzigartig für die Menschheit, dass manche sogar unsere Spezies dadurch definieren.
Diese Werkzeuge ermöglichen uns Dinge, die wir ohne sie nicht tun könnten und erschufen radikale Veränderungen unseres Lebens und unseres Umfeldes: Autos schenkten uns eine neue Mobilität. Kräne ermöglichten uns den Bau von Wolkenkratzern und Brücken. Maschinen halfen uns, Musik zu erschaffen und zu teilen.
Doch diese "unnatürliche" Seite der Technologie birgt auch Risiken: Eine dauerhafte Nutzung von Handwerkzeugen kann zu Arthritis führen. Wir können schneller Probleme mit der Sehkraft bekommen, wenn wir über Jahre auf Bildschirme starren. Navigationssysteme helfen uns bei der Orientierung, gleichzeitig lenken sie uns beim Fahren ab. Natürlich gibt es Bestrebungen, ergonomischere oder benutzerfreundlichere Werkzeuge herzustellen. Dennoch tendieren wir immer wieder zu Entscheidungen, die sich eher an den Bedarfen der Maschinen orientieren als daran, wie sie menschliche Potenziale optimieren können.
Zum ersten Mal in der Geschichte zeichnet sich jetzt aber ein deutlicher Kurswechsel ab: Dabei wenden wir uns nicht von der Technologie ab, sondern öffnen uns vielmehr für eine neue Generation von Technologie, die "menschlicher" ist. Sie ist sowohl von ihrer Anmutung als auch ihrer Nutzung her intuitiver, weist eine menschenähnliche Intelligenz auf und lässt sich so leichter in alle Aspekte unseres Lebens integrieren.
Damit besitzt generative KI das Potenzial, nicht nur die aktuelle Aufgabe zu beeinflussen, sondern tiefgreifende Veränderung bei Unternehmen und Märkten herbeizuführen.
Generative KI- und Transformermodelle verändern die Welt um uns herum. Mit Chatbots wie ChatGPT und Bard begann die Welle einer neuen Art von Technologie, die intuitiver, intelligenter und für alle zugänglich ist. Wurde KI früher vor allem für Automatisierung und die Erledigung von Routineaufgaben genutzt, weitet sich ihr Einsatz nun deutlich aus. Sie verändert die Arbeitsweise und führt zu einer raschen Demokratisierung der Technologien und der spezialisierten Wissensarbeit, die früher nur hochqualifizierten oder gut verdienenden Personen vorbehalten war.
Damit besitzt generative KI das Potenzial, nicht nur die aktuelle Aufgabe zu beeinflussen, sondern tiefgreifende Veränderung bei Unternehmen und Märkten herbeizuführen.
Die Gestaltung der Technologie entsprechend ihrer Nutzer:innen und deren Bedürfnisse, beschränkt sich selbstverständlich nicht nur auf KI: Sie adressiert auch viele der Probleme, die zwischen uns und der Technologie bestehen. Damit bereitet sie den Weg für die Entfaltung eines noch größeren menschlichen Potenzials.
Technologie, die auf den Menschen ausgerichtet ist, kann neue Personenkreise erschließen und den Zugang zu Wissen erweitern, was kontinuierliche Innovation ermöglicht. All die Menschen, die bisher keinen oder nur einen eingeschränkten Zugang zu Technologie hatten, können damit zur digitalen Revolution beitragen. Mit zunehmender Intuität der Technologien können Unternehmen genau diese Menschen zudem als neue Kund:innen und Mitarbeitende erreichen.
der Führungskräfte stimmen zu, dass auf den Menschen ausgerichtete Technologien in allen Branchen neue Chancen eröffnen werden.
Führungskräfte werden sich mit bereits bekannten Fragen auseinandersetzen: Welche Produkte und Dienstleistungen können wir skalieren? Welche neuen Daten stehen uns zur Verfügung? Welche grundlegenden Änderungen können wir vornehmen? Aber sie werden auch Antworten auf unerwartete Fragen finden müssen:
Welche Form von Kontrolle braucht KI? Wer ist Teil des digitalen Wandels? Welche Verantwortung tragen wir für die Menschen innerhalb unseres Ökosystems?
Ein Design, das den Menschen und seine Bedürfnisse in den Mittelpunkt stellt, ist nicht nur eine Funktionsbeschreibung, sondern eine Anforderung an alle zukünftigen Entwicklungen. Unternehmen werden ihren digitalen Kern nur dann erfolgreich neu ausrichten können, wenn sie die neuen Technologien konsequent auf ihre Nutzer:innen ausrichten. Gleichzeitig erkennen gerade alle Unternehmen, welchen fundamentalen Beitrag die Zukunftstechnologien für die Weiterentwicklung ihrer digitalen Strategie leisten können. Wenn Technologien wie generative KI, Spatial Computing und andere marktreif und skalierbar werden, verändern sich zwangsläufig digitale Erlebnisse, Daten, Analysen und Produkte.
Das Ziel dieser Neuausrichtung ist ein Miteinander von Mensch und Technologie, welches die Reibungsverluste minimiert und es den Mitarbeitenden ermöglicht, ihr Potenzial optimal zu entfalten. KI ist die Zukunft, aber sie muss auf die menschliche Intelligenz ausgerichtet werden. Mit der neuen Generation von Technologie können Unternehmen noch mehr erreichen. Gleichzeitig werden ihre Entscheidungen bedeutsamer.
der Führungskräfte stimmen zu, dass es angesichts des schnellen technischen Fortschritts wichtiger ist als je zuvor, dass Unternehmen bei ihren Innovationen gezielt vorgehen.
Unsere Beziehung zu Daten verändert sich, und mit ihr die Art und Weise, wie wir über Technologie denken, mit ihr arbeiten und interagieren. Damit wird die Basis digitaler Unternehmen komplett neu gedacht.
Das suchbasierte Modell für die Interaktion von Mensch und Daten, ähnlich einem „Bibliothekar“, wird durch ein „Berater“-Modell ersetzt: Anstatt mittels Suchanfragen eine Ergebnisauswahl zu erhalten, stellen die Nutzer:innen generativen KI-Chatbots Fragen. Ein typisches Beispiel: OpenAI präsentierte im November 2022 ChatGPT, die danach am schnellsten wachsende App aller Zeiten. Zentraler Treiber dafür war, dass ChatGPT Fragen direkt und in Dialogform beantwortet – obwohl es Large Language Models (LLM) bereits seit Jahren gibt.
Daten sind heute einer der wichtigsten Faktoren für die Ausgestaltung digitaler Geschäftmodelle. Die neuen Chatbots, die riesige Mengen an Informationen zusammenfassen, um Antworten und Ratschläge zu geben, die verschiedene Datenmodalitäten nutzen, die sich an vorherige Dialoge erinnern und die sogar eine Folgefrage vorschlagen können, stellen diesen Grundgedanken infrage. Denn sie können als LLM-Berater fungieren, der letztendlich jedem Mitarbeitenden Zugriff auf das gesamte Know-how des Unternehmens gibt. So könnte der verborgene Wert der Daten freigelegt und damit endlich die vielversprechende Zukunft eines datengetriebenen Unternehmens erschlossen werden.
Dank generativer KI ist ein digitaler Butler nun Realität geworden.
Unternehmen verfügen über wertvolle und einzigartige Informationen, die ihre Kund:innen, Mitarbeitenden, Partner und Investoren finden und nutzen sollten. Bisher ist der Zugriff auf diese Informationen und ihre Verarbeitung jedoch oftmals schwierig: Weil nicht die richtigen Suchbegriffe verwendet werden, die Anfrage nicht geschrieben werden kann, die Daten in einem Silo liegen oder die Dokumente zu massiv sind. Für datengetriebene Unternehmen liegt darin aber ein großer, ungenutzter Mehrwert, den sie durch generative KI entschlüsseln könnten.
Der größte disruptive Faktor ist allerdings gar nicht unser Zugriff auf die Daten, sondern vielmehr das Potenzial, den gesamten Softwaremarkt zu revolutionieren. Wie wäre es, wenn die Schnittstelle zu jeder App und jeder digitalen Plattform ein generativer KI-Chatbot wäre? Wie wäre es, wenn dies zur Kernkompetenz aller Plattformen würde und bestimmt, wie wir Daten lesen, schreiben und damit interagieren?
Um die Vorteile generativer KI wirklich zu nutzen und das daten- und KI-getriebene Unternehmen der Zukunft zu schaffen, müssen Unternehmen jetzt ihre Strategie für ihre Kerntechnologien radikal überdenken. Es muss ein Umdenken stattfinden, wie Daten erhoben und strukturiert werden, wie die übergreifende Architektur und die Umsetzung von Technologie-Tools und deren Funktionen aussehen sollen. Dabei müssen von Beginn an auch neue Praktiken wie Schulungen und KI-Kontrollen mit eingebracht werden. Darüber hinaus müssen Wege gefunden werden, die Ergebnisse dahingehend zu prüfen, dass sie nicht zu stark voreingenommen sind basierend auf den zugrundeliegenden Inhalten und genutzen KI-Modellen.
der Führungskräfte glauben, dass generative KI sie zwingt, die Technologiearchitektur ihres Unternehmens zu modernisieren.
Stärkung Ihrer Datengrundlage
Neue Technologien und Techniken helfen Unternehmen, ihre Datengrundlage zu stärken und so die Basis für datengetriebene Geschäftsmodelle zu schaffen. LLM-Berater brauchen jedoch eine Datengrundlage, die noch zugänglicher und kontextbezogener ist als je zuvor.
Eine der wichtigsten Technologien in diesem Zusammenhang ist der Knowledge Graph. Dieses grafische Datenmodell stellt die einzelnen Entitäten und die Beziehungen zwischen ihnen dar und bringt so mehr Kontext mit ein. Ein solcher Knowledge Graph kann nicht nur Informationen aus mehr Quellen zusammenstellen und eine bessere Personalisierung unterstützen, sondern über eine semantische Suche auch den Zugang zu den Daten verbessern.(ii)
Statt LLM griff man dort auf Natural Language Processing zurück, um eine Ontologie und einen maschinellen Tagging-Service aufzubauen. Damit wurden den Dokumenten Metadaten zugewiesen, die dann wiederum in einer Graph-Datenbank gespeichert wurden. Inzwischen findet man Informationen doppelt so schnell und Cisco spart seinem Vertriebsteam durch diese Optimierung des Wissensmanagements über vier Millionen Arbeitsstunden im Jahr.
Neben den Knowledge Graphs sind auch Data Mesh und Data Fabric, zwei Möglichkeiten zur Aufbereitung und Organisation von Informationen, Unternehmen sollten diese bei der Überarbeitung ihrer Gesamtarchitektur in Betracht ziehen.
LLMs als neue Datenschnittstelle
Schon allein durch Knowledge Graphs, Data Mesh und Data Fabric lassen sich die Wissensmanagementsysteme von Unternehmen stark verbessern. Aber eine noch größere Wertschöpfung ist möglich, wenn sie darüber hinaus vom Bibliothekar- zum Berater-Modell wechseln. Statt einer Suchleiste könnten Mitarbeitende dann einfach auf jeder Website und in jeder App des Unternehmens in normaler Sprache Fragen stellen und klare Antworten erhalten. Voraussetzung ist eine zugängliche und kontextbezogene Datengrundlage, dann können Unternehmen dieses Angebot entwickeln. Dabei gibt es unterschiedliche Wege.
Einerseits könnte ein Unternehmen ein eigenes LLM von Grund auf trainieren. Dies geschieht aufgrund der großen Menge an benötigten Ressourcen allerdings eher selten.
Die zweite Möglichkeit ist die „Feinjustierung“ eines bestehenden LLM. Hierbei trainiert man ein allgemeineres LLM mit spezifischen Dokumenten für eben diesen Bereich. Sinnvoll ist diese Option für Bereiche, in denen keine Echtzeitinformationen benötigt werden, wie z.B. in kreativen Bereichen wie Design oder Marketing.
Die Feinjustierung von Smaller Language Models (SLM), eine Variation davon, wird für bestimmte Awendungsfälle ebenfalls immer beliebter. Diese SLMs sind nicht nur effizienter, kostengünstiger und haben eine bessere CO2-Bilanz, sondern lassen sich auch schneller trainieren und auf kleineren Edge Devices nutzen.
Einer der beliebtesten Wege zum LLM-Berater ist schließlich das sogenannte „Grounding“ von vorhandenen LLMs durch relevantere Informationen für spezifische Anwendungsfälle, meist durch Retrieval Augmented Generation (RAG).
Generative KI und LLMs entwickeln sich sehr schnell. Aber welchen Weg Sie auch einschlagen, eines ist sicher: Ihre Datengrundlage muss solide und kontextbezogen sein, sonst kann Ihr LLM-Berater nicht die gewünschte Leistung erbringen.
Risiken erkennen und minimieren
Bevor sich Unternehmen mit den neuen Chancen auseinandersetzen, die sich durch LLM-Berater ergeben, müssen sie zunächst die damit verbundenen Risiken verstehen.
Ein Beispiel sind die „Halluzinationen“, eine beinahe inhärente Eigenschaft von LLMs. Da sie darauf trainiert sind, wahrscheinliche Antworten mit einem hohen Maß an Sicherheit zu geben, kommt es vor, dass diese Berater selbstbewusst falsche Informationen präsentieren.
Auch wenn Halluzinationen das wohl bekannteste Risiko von LLMs sind, müssen andere Probleme in erwägung gezogen werden. Bei der Nutzung eines öffentlichen Modells müssen die firmeneigenen Daten sorgfältig geschützt werden, damit sie nicht nach außen dringen. Auch bei privaten Modellen muss nicht autorisierten Mitarbeitenden der Zugang zu Daten verwehrt sein. Die Kosten für die Rechenleistung müssen berücksichtigt werden. Vor allem aber gibt es nur sehr wenige Personen mit der nötigen Expertise, um diese Lösungen gut umzusetzen.
Diese Herausforderungen sollten Sie aber nicht etwa abschrecken, sondern vielmehr ein Aufruf sein, die Technologie von Anfang an mit entsprechenden Kontrollmechanismen zu implementieren.
Füttern Sie das LLM – ob per Training oder per Prompt – nur mit hochwertigen Daten: aktuell, gut gekennzeichnet und unvoreingenommen. Verwenden Sie beim Training nur Zero-Party-Daten, die von Kund:innen proaktiv geteilt werden, oder First-Party-Daten, die direkt vom Unternehmen erhoben werden.(viii) Zudem sollten Sicherheitsstandards zum Schutz von personenbezogenen oder firmeneigenen Daten implementiert werden. Schließlich sollte es auch Berechtigungen geben, damit Nutzer:innen auf Daten zugreifen können, die für das kontextuelle Lernen abgerufen werden.
Die Ergebnisse des generativen KI-Chatbots sollten nicht nur präzise, sondern auch nachvollziehbar sein und der Marke entsprechen. Machen Sie Vorgaben, damit das Modell nicht mit sensiblen Daten oder verletzenden Begriffen antwortet und Fragen ablehnt, die es nicht beantworten kann. Es kann auch Unsicherheit in den Antworten äußern und Quellen für die Verifizierung angeben.
Letztendlich sollten generative KI-Chatbots kontinuierlich überprüft und von Menschen kontrolliert werden. Investieren Sie als Unternehmen in ethische KI und entwickeln Sie Mindeststandards. Außerdem ist es ratsam, regelmäßig Feedback einzuholen und Ihre Mitarbeitenden zu schulen.
Neben den bereits genannten Auswirkungen auf die Sicherheit sollten Unternehmen auch darüber nachdenken, wie die LLM-Berater die Dynamik der Nutzerdaten verändern können.
Wir können jetzt die Einstellung zu Online-Suchen neu definieren und so wieder Vertrauen zwischen Unternehmen und ihren Kund:innen schaffen. Unternehmen können jetzt ihre Informationen selbst verwalten: Sie können ihre Daten und ihre Expertise speichern, sichern, analysieren und über digitale Berater direkt in den Austausch mit ihren Kund:innen treten. Dies bedeutet zugleich ein hohes Maß an Verantwortung: Ihr Unternehmen muss für die Sicherheit der Daten sorgen und in den Berater-Diensten sehr selbstbewusst antworten. Trotzdem überwiegen die positiven Seiten: Denn ohne Suchanbieter als Vermittler im Informationsaustausch werden die Unternehmen selbst zur direkten Quelle für zuverlässige Daten und haben so das Vertrauen ihrer Kund:innen selber in der Hand.
Generative KI wird grundlegende Veränderungen in den Bereichen Daten und Software bewirken. LLMs transformieren unsere Interaktionen mit Informationen und initiieren einen Wandel, der sich von der Kundenansprache bis hin zur Stärkung von Mitarbeitenden und Partnern erstreckt. Führende Unternehmen beschäftigen sich bereits mit dieser Thematik und arbeiten an der nächsten Generation datengetriebener Geschäftsmodelle. Schon bald werden sich andere anschließen. Das ist die neue Form der digitalen Unternehmensführung.
KI verlässt den begrenzten Bereich der passiven Unterstützung und beeinflusst immer mehr Bereiche der Welt durch ihre Aktionen. Im nächsten Jahrzehnt werden wir den Aufstieg ganzer Agenten-Ökosysteme erleben - große Netzwerke miteinander verbundener KI, die Unternehmen dazu bringen werden, ihre Intelligenz- und Automatisierungsstrategie grundlegend neu zu überdenken.
Heute sind die meisten KI-Strategien eng auf unterstützende Aufgaben und Funktionen ausgerichtet. Wenn KI agiert, tut sie dies als einzelner Akteur und innerhalb eines Netzwerkes von voneinander abhängigen Komponenten. Doch mit der Entwicklung von KI-Agenten werden automatisierte Systeme selbstständig Entscheidungen treffen und danach handeln. Dann werden Menschen nicht mehr von Agenten beraten, sondern durch sie vertreten. KI wird auch weiterhin Texte, Bilder und Erkenntnisse generieren. Doch Agenten entscheiden, was sie damit anfangen. Damit tragen sie dazu bei, unsere Zukunft zu gestalten. Es ist jedoch an uns, sicherzustellen, dass es eine Zukunft ist, in der wir leben möchten.
Sobald aber die Agenten zu unseren Kolleg:innen und Vertreter:innen werden, müssen wir das zukünftige Miteinander von Talenten und Technologie überdenken.
Auch wenn diese Entwicklung von Agenten erst am Anfang steht, sollten Unternehmen bereits jetzt über die nächsten Schritte nachdenken. Denn gibt es die Agenten erst einmal, wird es nicht mehr lange dauern, bis sie auch miteinander interagieren. In Ihrer KI-Strategie der Zukunft werden Sie ein ganzes Orchester von Akteuren dirigieren müssen: speziell trainierte KI, allgemeine Agenten, Agenten, die mit Menschen zusammenarbeiten, und Agenten für die Optimierung von Maschinen.
Aber bevor KI-Agenten uns vertreten können, liegt noch viel Arbeit vor uns – und noch deutlich mehr, bis sie miteinander harmonieren. Momentan kommen Agenten häufig noch nicht selbständig mit der Problemlösung voran, wenden Tools falsch an und generieren fehlerhafte Antworten. Solche Fehler können sich schnell aufaddieren.
Mensch und Maschine agieren heute auf Aufgabenebene miteinander. Bisher sind Führungskräfte jedoch nicht darauf vorbereitet, dass KI auch operative Entscheidungen trifft und Führungsrollen übernehmen kann. Sobald aber die Agenten zu unseren Kolleg:innen und Vertreter:innen werden, müssen wir das zukünftige Miteinander von Talenten und Technologie überdenken. Dabei geht es nicht nur um neue Fähigkeiten, sondern vor allem darum, sicher zu stellen, dass die Agenten die gleichen Werte und Ziele haben wie wir. Die Agenten werden mit beeinflussen, wie unsere Welt in Zukunft aussieht – deshalb müssen wir sicherstellen, dass dies eine Welt ist, in der wir auch wirklich leben wollen.
der Führungskräfte stimmen zu, dass die Nutzung von Ökosystemen von KI-Agenten innerhalb der nächsten 3 Jahre für ihre Organisation eine große Chance bietet.
Haben sich KI-Assistenten erst einmal so weit entwickelt, dass sie Menschen vertreten können, entscheiden drei Kernfaktoren über einen positiven Einfluss auf das Geschäft: Zugang zu Echtzeitdaten und -diensten, Schlussfolgerungen aus komplexen Gedankenketten sowie die Entwicklung weiterer Tools, die die Agenten unterstützen.
Fangen wir mit dem Zugang zu Echtzeitdaten und -diensten an: Bei der Einführung von ChatGPT gingen viele Menschen irrtümlicherweise davon aus, dass die App das Internet aktiv nach Informationen durchsucht. Tatsächlich aber hatte man GPT-3.5 (das LLM, mit dem ChatGPT zunächst auf den Markt kam) nur mit einem extrem breit aufgestellten Wissenskorpus trainiert und es nutzte die Beziehungen zwischen den Daten, um Antworten zu geben.
Plug-ins, die bereits kurz nach dem Launch von ChatGPT zur Verfügung gestellt wurden, schafften Abhilfe: Mit ihnen werden die isoliert arbeitenden Foundation Models zu Agenten, die sich in der aktuellen digitalen Welt zurechtfinden und agieren können. Schon für sich genommen, bergen Plug-ins ein großes Innovationspotenzial. Darüber hinaus spielen sie auch eine wichtige Rolle für die Entstehung von Agenten-Ökosystemen.
Der zweite Entwicklungsschritt bei den Agenten ist die Fähigkeit zu argumentieren und logisch zu denken. Denn selbst für die einfachste Alltagshandlung eines Menschen braucht die Maschine eine ganze Reihe komplexer Anweisungen.
Die KI-Forschung überwindet gerade langsam die Grenzen zum Machine Reasoning. Chain-of-Thought Prompting ist ein Ansatz, mit dem LLMs die Schritte einer komplexen Aufgabe besser verstehen sollen.(xi)
Durch Chain-of-Thought Reasoning und Plug-ins hat KI das Potenzial, mithilfe von strengerer Logik und der Masse von digitalen Tools im Netz komplexere Aufgaben zu übernehmen. Aber was passiert, wenn es die benötigte Lösung noch nicht gibt?
Als Menschen kaufen oder bauen wir uns dann die entsprechenden Werkzeuge. Früher war die KI auf Menschen angewiesen, um ihre Fähigkeiten weiterzuentwickeln. Inzwischen zeichnet sich aber eine dritte Dimension ab, nämlich die Möglichkeit, dass die KI Tools für sich selbst entwickelt.
Das Agenten-Ökosystem kann überwältigend wirken. Denn neben den drei wichtigsten Aspekten der autonomen Agenten sprechen wir auch über die unglaublich komplexe Herausforderung, das Zusammenspiel zu steuern. Darüber hinaus ist eine massive Veränderung bei den Mitarbeiter:innen erforderlich, um das alles überhaupt möglich zu machen. Führungskräfte sind verständlicherweise unsicher, wo sie überhaupt ansetzen sollen.
Die gute Nachricht: Das, was Sie zur digitalen Transformation bereits angestoßen haben, verschafft Ihnen schon einen ersten Vorsprung.
Was passiert eigentlich, wenn ein Agenten-Ökosystem die Arbeit aufnimmt? Egal, ob als unsere Assistenten oder als unsere Vertreter: Wir erwarten eine deutliche Steigerung der Produktivität und Innovation sowie eine Veränderung der Aufgabengestaltung und Arbeitsweisen der Mitarbeitenden.
Agenten könnten als Assistenten oder Copilots die Produktivität der Mitarbeitenden deutlich erhöhen.
In anderen Szenarien können Agenten damit betraut werden, Mitarbeitende zu vertreten. Als solche Vertreter könnten sie Aufgaben übernehmen, die bislang von Menschen ausgeführt werden. In dieser Rolle greifen sie auf das gesamte dokumentiert Unternehmenswissen und alle verfügbaren Informationen zu.
Unternehmen müssen überlegen, mit welchen menschlichen und technologischen Ansätzen sie diese Agenten unterstützen können. Ein entscheidender Punkt aus technologischer Sicht ist die Definition dieser Einheiten.
Eine noch viel wichtigere Frage ist: Wie wird sich der Einsatz von Agenten – mit neuen Verantwortlichkeiten, Rollen und Funktionen – auf die menschlichen Mitarbeiter:innen auswirken? Denn auch wenn Agenten Unternehmensfunktionen übernehmen können, sind es Menschen, die die Regeln dafür definieren und durchsetzen.
Im Zeitalter der Agenten-Ökosysteme werden diejenigen Mitarbeitenden am wertvollsten sein, die am besten in der Lage sind, die Richtlinien für die Agenten festzulegen.
Um wirklich Mehrwert schaffen zu können, ist es unerlässlich, dass die Agenten Vertrauen im Unternehmen genießen.
Aber die Agenten müssen auch ihre Grenzen kennen. Wann hat ein Agent genügend Informationen, um selbstständig zu handeln, und wann sollte er besser vorher um Hilfe bitten? Überall müssen Menschen darüber entscheiden, wie viel Unabhängigkeit sie ihren autonomen Systemen gewähren.
Was brauchen Mitarbeitende und Agenten, um erfolgreich sein zu können? Geben Sie den Agenten die Möglichkeit, mehr über Ihr Unternehmen zu erfahren, und geben Sie umgekehrt Ihrem Unternehmen die Gelegenheit, mehr über Agenten zu erfahren.
Beginnen Sie damit, ein Verbindungsnetz zwischen den Vorläufern der Agenten, den LLMs, und ihren Supportsystemen zu weben. Durch die Feinjustierung von LLMs mit Ihren Unternehmensinformationen bereiten Sie die Foundation Models bereits darauf vor, Expertise zu entwickeln.
Außerdem müssen Ihre Mitarbeiter:innen ihre zukünftigen digitalen Kollegen kennen lernen. Fördern Sie eine grundlegende Offenheit für die Agenten der Zukunft, indem Sie Ihren Mitarbeiter:innen beibringen, mit bereits vorhandenen intelligenten Technologien zu diskutieren. Fordern Sie sie dazu auf, die Grenzen bestehender autonomer Systeme auszuloten und zu überschreiten.
Schließlich muss auch das Leitbild des Unternehmens klar sein. Jede Handlung Ihrer Agenten muss auf Ihre Kernwerte und Ihre Mission zurückgeführt werden können. Deshalb können Sie gar nicht früh genug damit beginnen, diese Werte durchgängig im gesamten Unternehmen zu etablieren.
Aus einer Sicherheitsperspektive müssen Prozesse und Entscheidungen in Agenten-Ökosystemen transparent sein. Man denke nur an die zunehmende Notwendigkeit einer Software-Werkstoffliste, einer klaren Liste aller Code-Komponenten und Abhängigkeiten, aus denen eine Software-Anwendung besteht, um Unternehmen und Behörden einen Blick unter die Haube zu ermöglichen. In ähnlicher Weise könnte eine Materialliste für Agenten dazu beitragen, die Entscheidungsfindung von Agenten zu erklären und nachzuvollziehen.
Welche Logik hat der Agent angewendet, um eine Entscheidung zu treffen? Welcher Agent hat entschieden? Welcher Code wurde geschrieben? Welche Daten wurden genutzt und an wen wurden sie weitergegeben? Je besser wir die Entscheidungsfindungsprozesse der Agenten nachvollziehen und verstehen können, desto eher vertrauen wir ihnen, uns zu vertreten.
Agenten-Ökosysteme haben das Potenzial, die Produktivität und Innovationen eines Unternehmens auf ein Niveau anzuheben, das sich Menschen heute noch kaum vorstellen können. Ihr Wert hängt aber ganz von den Menschen ab, die sie anleiten. Nur menschliches Wissen und menschliche Logik können einem Netzwerk von Agenten einen Vorsprung gegenüber anderen verschaffen. Im Augenblick ist KI noch ein Tool. In Zukunft werden KI-Agenten wichtige Unternehmensfunktionen übernehmen. Deshalb müssen wir dafür sorgen, dass dies zielgerichtet gesteuert wird und nicht im Chaos endet. Angesichts des Entwicklungstempos von KI sollten Sie bereits jetzt damit anfangen, Ihre Agenten an Bord zu holen.
Spatial Computing wird nicht nur technologische Innovationen verändern, sondern auch, wie Menschen leben und arbeiten. Für Desktop- und mobile Geräte sind Bildschirme das Portal in die digitale Welt, aber mit Spatial werden unsere physische und unsere digitale Realität endlich zu einer verschmelzen. Über Apps, die für dieses Medium entwickelt werden, können Menschen komplett in digitale Welten eintauchen und trotzdem ein Raumgefühl haben, oder sie können digitale Inhalte auf ihre physische Umgebung legen.
Warum fühlt es sich dann nicht so an, als stünden wir am Beginn eines neuen Technologiezeitalters? Warum hören wir stattdessen überall von einem „Einbruch des Metaverse“? Das Metaverse ist eine der bekanntesten Anwendungen für Spatial Computing. Aber die Preise für Digital Real Estate, die 2021 und 2022 noch einen Boom erlebten, sind 2023 um 80–90 % zurückgegangen.
Spatial Computing wird nicht nur technologische Innovationen verändern, sondern auch, wie Menschen leben und arbeiten.
Manche Unternehmen halten sich zurück und sagen, dass der Metaverse-Hype die technologische Reife überholt hat. Andere wiederum gehen schnell voran und bauen technische Möglichkeiten auf. Meta hat schnell VR- und AR-Produkte entwickelt und Codex Avatars vorgestellt, die mithilfe von KI und Smartphone-Kameras fotorealistische Avatare erstellen. Mit der RealityScan App von Epic kann man 3D-Objekte in der physischen Welt mit seinem Handy scannen und in virtuelle 3D-Assets verwandeln.
Im Hintergrund sorgt der technologische Fortschritt bei z. B. generativer KI dafür, dass die Kreation von Spatial-Umgebungen und -Erlebnissen schneller und günstiger wird. Auch in Industrieanwendungen werden diese Technologien bereits getestet: Digitale Zwillinge in der Produktion, immer mehr VR/AR in Schulungen und bei der Fernwartung sowie die Entwicklung von kollaborativen Designumgebungen haben bereits jetzt praktische – und wertschöpfende – Auswirkungen auf die Industrie.
Tatsächlich kommen neue mediale Technologien nur selten auf und wenn, dann werden sie nur langsam aufgegriffen. Die Vorteile einer frühen Anwendung sind aber beinahe grenzenlos.
der Führungskräfte stimmen zu, dass sie sich mit der Nutzung von Spatial Computing einen Wettbewerbsvorteil aufbauen wollen.
Dank neuer Standards, Tools und Technologien ist es jetzt einfacher und günstiger, Spatial-Apps und -Erlebnisse zu entwickeln, die uns bekannt vorkommen.
Denken Sie an Ihre Lieblings-Websites oder Apps. Auch wenn sie unterschiedliche Zwecke erfüllen, gibt es doch selbst bei den unterschiedlichsten Erlebnissen Gemeinsamkeiten. Warum? Weil sie alle die gleiche Basis haben.
Für Spatial Computing gab es lange Zeit keine solche Basis.
Doch plötzlich kam Universal Scene Description (USD), das man am besten als Dateiformat für dreidimensionale Räume beschreibt. Pixar hat USD als Rahmen für Kreative entwickelt, um die Aspekte einer bestimmten Szene skizzieren zu können, darunter auch bestimmte Assets und Hintergründe, Beleuchtung, Charaktere und vieles mehr. Da USD diese Assets zu einer Szene zusammenführen soll, kann für jedes davon unterschiedliche Software genutzt werden. So werden eine gemeinsame Inhaltserstellung und eine nicht-destruktive Bearbeitung möglich. Es wird auch für die wirksamsten Spatial-Anwendungen zunehmend wichtiger, vor allem bei digitalen Zwillingen in der Industrie.
Unternehmen muss klar sein, dass sie in Zukunft keine isolierten Räume mehr haben werden. Keine Webseite oder App im Internet ist isoliert und das Netz wird vermutlich diese parallelen Experiences im nächsten Schritt noch enger zusammenführen.
Ein weiterer Unterschied des Spatial Computing gegenüber seinen digitalen Pendants ist die Möglichkeit, in den Experiences auch weitere unserer Sinne mit einzubeziehen. Denn mit neuen Technologien können die Ingenieure auch Reize implementieren, die durch Berührung, Geruch und Klang auch den Tast-, den Geruchs- und den Hörsinn ansprechen.
Waren bei früheren VR-Versuchen Haptik oder Berührung häufig klobig noch oder enttäuschend, so haben Forscher:innen der University of Chicago vor Kurzem angeregt, Berührung über Elektroden besser nachzuahmen.
Auch Gerüche können digitale Räume echter erscheinen lassen, weil sie Erinnerungen oder die wichtige Reaktion Flucht oder Kampf hervorrufen können. Scentient, ein Unternehmen, das den Geruchssinn ins Metaverse bringen möchte, hat mit einer Ausbildungstechnologie für Feuerwehr- und Rettungskräfte experimentiert, wo Gerüche wie z. B. Erdgas ein entscheidender Faktor bei der Risikoeinschätzung im Notfall sein können.
Selbstverständlich brauchen realistische digitale Szenen auch Geräusche oder Spatial Audio.
Schließlich werden immersive Spatial-Apps auch auf unsere natürliche Bewegung reagieren müssen.
Spatial Computing wird weder Desktop- noch mobile Computer ersetzen, entwickelt sich aber zu einem wichtigen Teil der Infrastrukur, die der IT-Strategie von Unternehmen zugrunde liegt.
Die ersten Weiterentwicklungen sehen wir bereits. Digitale Zwillinge sind sinnvoller, wenn man durch sie hindurchgehen kann. Schulungen sind wirkungsvoller, wenn sie in einer Live Umgebung erlebt werden können und nicht aus einer Reihe von Videos bestehen, die sich die Lernenden alleine ansehen. Auch wenn es sich hierbei häufig um einzelne Pilotprojekte handelt, kann es für die Ausgestaltung der Unternehmensstrategie hilfreich sein, die besonderen Vorteile des Spatial Computing sorgfältig abzuwägen. Zwar ist der Markt noch jung, aber bereits jetzt zeigen sich drei wesentliche Vorteile von Spatial-Apps: Sie können große Mengen an komplexen Informationen vermitteln, den Nutzer:innen die Verantwortung für ihr eigenes Erlebnis übertragen und, auch wenn es widersprüchlich klingen mag, uns ermöglichen, physische Räume auszuweiten.
Bei der Vermittlung komplexer Informationen zeigt sich der Vorteil des Mediums Spatial vermutlich am deutlichsten. Da sich Nutzer:innen in einem Raum natürlich bewegen und verhalten können, lassen sich Informationen dynamischer und immersiver weitergeben. Das haben wir bereits gesehen und erlebt. Zu den frühesten Beispielen für erfolgreiche Spatial-Apps gehören die digitalen Zwillinge in der Industrie, virtuelle Schulungen oder Echtzeit Remote-Support.
Der zweite Vorteil von Spatial gegenüber anderen Medien ist die Möglichkeit, dass Nutzer:innen ihr Erlebnis in der App selbst gestalten können. Da wir mit Spatial Computing digitale Erlebnisse mit einem physischen Raumgefühl entwickeln können, haben die Nutzer:innen mehr Flexibilität, sich zu bewegen und den Raum zu erkunden.
Spatial-Apps haben aber auch Vorteile für physische Räume: Sie können diese ergänzen, verbessern und ausweiten, ohne sie tatsächlich zu verändern. Vielleicht gibt es ja in der Zukunft Büros, in denen Spatial-Computer und -Apps die physischen Monitore, Beamer und Displays ersetzen. Räume können dann weniger aufwendig gestaltet und ausgestattet sein, was geringere Fixkosten zur Folge hat. Darüber hinaus lassen sie sich dann auch leichter verändern und anpassen.
Wenn sich Teile der Arbeitswelt in den Spatial-Bereich verlagern, müssen Unternehmen auch an die Sicherheit denken. Die Anzahl der genutzten Geräte wird noch weiter ansteigen als bisher: Mitarbeiter:innen nutzen dann Spatial-Geräte in ihrer beruflichen Umgebung, während Kund:innen darüber in die private Experiences einsteigen. Dieses immer größer werdende Ökosystem bietet natürlich auch noch mehr Angriffspunkte. Aber wie ziehen Sie Grenzen in einem grenzenlosen Raum? Bei ihren Spatial-Strategien müssen Unternehmen auf das Prinzip Zero vertrauen.
Außerdem sollten sie sich bewusst machen, dass es sich bei Spatial in neue Bereiche vorwagen, sodass sowohl Anbieter als auch Nutzer:innen mit Unbekanntem rechnen müssen. Hier braucht es mehrere Sicherheitsebenen (z.B. administrativ, technisch und physisch), um sich in diesem neuen Gebiet zu schützen.
Spatial Computing nimmt langsam Fahrt auf und Führungskräfte, die hier vorne dabei sein wollen, sollten sich jetzt damit auseinandersetzen. Überdenken Sie Ihre Position zu Spatial und überlegen, wie sie sie für Ihr Unternehmen nutzen können. Neueuntwickulungen diesen Ausmaßes sind äußerst selten. Doch sie können nachhaltig Unternehmen sowie unser Leben und unser Arbeiten nachhaltig verändern.
Um die Technologien, die wir heute nutzen, zu steuern, müssen wir unsere Wünsche in Befehle übersetzen, die sie verstehen. Denn Roboter und Drohnen kennen unsere Wünsche, Erwartungen und Absichten nicht und können sie anders nicht entschlüsseln.
Innovatoren wollen dies jetzt ändern. Branchenübergreifend arbeiten sie an Technologien und Systemen mit einem neuen und tieferen Verständnis für uns. Ihr Ziel ist eine engere Schnittstelle zwischen Mensch und Maschine, deren Wirkung noch viel weiter reichen wird als nur Smart Homes zu verbessern.
Die Neurotechnologie ist bereits dabei, sich mit dem menschlichen Gehirn zu vernetzen. Forscher:innen an der University of California in San Francisco und der Stanford University haben in zwei verschiedenen Studien vor Kurzem gezeigt, wie sie mithilfe von Neuroprothesen – wie z. B. Brain-Computer-Interfaces (BCI) – aus neuronalen Daten Sprache entschlüsseln. Patient:innen mit Spracheinschränkungen könnten damit „sprechen“, wenn ihre Sprechansätze in Text oder einen Stimmengenerator überführt werden.
Technologien, die unser Verhalten und unsere Intentionen selbständig entschlüsseln können, werden sich harmonisch in unseren Alltag integrieren, unaufdringlich und allgegenwärtig.
Darüber hinaus gibt es Technologien, die körperliche Bewegung „lesen“, indem sie zum Beispiel Augen- und Handbewegungen nachzeichnen. Apple Vision Pro hat 2023 visionOS eingeführt, wo die Nutzer:innen durch Augenbewegung und eine einfache Geste navigieren und klicken können. Ein manueller Controller wird damit überflüssig.
Diese Art von Innovationen schreibt die Regeln für die Mensch-Maschine-Interaktion neu und verschiebt die Grenzen, die seit Jahrzehnten galten. Diese neuartigen Schnittstellen sind darauf ausgelegt, dass Technologien uns, unser Verhalten und unsere Absichten, besser verstehen und sich darauf einstellen können. Und wir unser Verhalten nicht mehr, wie bisher, auf die Bedarfe der Technologie ausrichten müssen.
Der Gedanke, dass Technologie uns auf diese neue und intime Weise versteht, kann natürlich zunächst einmal abschreckend und einschüchternd für Unternehmen und Nutzer:innen sein. Unternehmen müssen daher ein ein besonderes Augenmerk darauf legen, wie sie Vertrauen in diese Technologien schaffen und Missbrauch verhindern können. Die Datenschutzstandards für Biometrie müssen aktualisiert werden. Auch in der Neuroethik müssen Schutzmaßnahmen definiert werden, u.a. für einen angemessenen Umgang mit Hirn- und anderen biometrischen Daten, die zur Erschließung von Absichten und kognitiven Zuständen von Menschen genutzt werden können. Bis die Regulierungsbehörden hier formale Vorgaben machen, ist es die Aufgabe der Unternehmen, das Vertrauen der Menschen zu gewinnen.
der Verbraucher:innen stimmen zu, dass es sie häufig frustriert, wenn die Technologie sie und ihre Absichten nicht versteht.
Die Herausforderung für Unternehmen, die Menschen und ihre Bedürfnisse zu verstehen, ob als einzelnen, als Zielgruppe oder als Gesellschaft, ist so alt wie das Unternehmertum selbst. Digitale Technologie leisten hier einen entscheidenden Beitrag zur Differenzierung. Über digitale Plattformen und Geräte können Unternehmen menschliches Verhalten nachvollziehen und quantifizieren und daraus einen riesigen Mehrwert ableiten. Die neuartigen Schnittstellen, welche den Menschen ins Zentrum stellen, werden erneut eine große Veränderung bringen und ein noch tieferes Verständnis ermöglichen.
Aktuelle Technologien basieren auf der Aufzeichnung von Verhaltensmustern, die jedoch wenig spezifisch sind: Menschen lesen oder sehen sich bekannte Inhalte an. Das können wir beobachten und sagen, WAS sie tun. Doch wissen wir, ob sie damit zufrieden sind, oder lieber neue Inhalte konsumieren würden? Über das WARUM sie etwas tun, darüber können wir heute oftmals keine Aussage treffen.
Dieses neuartige Verständnis basiert nicht auf einer einzigen Technologie. Vielmehr umfasst sie eine ganze Reihe von Technologien, mit denen Innovatoren die Menschen umfassender betrachten und verstehen.
Dazu zählen Wearables, um Biosignale für die Prognose von Wünschen aufzuzeichnen oder um den kognitiven Zustand zu verstehen.
Andere Anbieter entwickeln detailliertere Möglichkeiten, um die Absichten von Menschen im Verhältnis zu ihrem Umfeld zu erfassen.
Ein weiterer Ansatz für das Erkennen menschlicher Absichten ist KI. Ein Beispiel sind Kollaborationen von Mensch und Roboter. Der Gemütszustand eines Menschen, z.B. ehrgeizig oder müde, kann beeinflussen, wie er eine Aufgabe angeht. Menschen können diesen meist gut erkennen, Roboter bisher jedoch nicht. Aktuelle Bestrebungen zielen darauf ab, dies zu ändern und trainieren Roboter in der Erkennung menschlicher Gemütszuständen.
Eine der vielleicht spannendsten Technologien an der Schnittstelle zwischen Mensch und Maschine ist die Neurotechnologie: Neurosensorik und BCI. Im vergangenen Jahrzehnt sind viele neue Neurotech-Unternehmen entstanden und sie haben in ihrem Bereich definitiv Potenzial, menschliche Absichten zu erkennen.
Für viele mögen Neurosensorik und BCI noch weit von einer umfassenden kommerziellen Nutzung entfernt sein. Die neuesten Fortschritte deuten jedoch auf eine andere Entwicklung hin.
Zwar versichern Skeptiker gern, dass die Neurotechnologie auf den Gesundheitssektor beschränkt bleiben wird. Dennoch kommen beinahe täglich weitere kommerzielle Projekte und Anwendungsfälle hinzu.
Grund hierfür sind zwei entscheidende Faktoren: Fortschritte in der KI-gestützen Erkennung von Mustern verbunden mit der Verfügbarkeit von deutlich mehr Daten ermöglichen eine verbesserte Entschlüsselung von Signalen im Gehirn.
Der zweite wichtige Bereich ist die Neuro-Hardware, insbesondere die Qualität externer Geräte. Bislang gehörten EEG (Elektroenzephalografie) und funktionelle Magnetresonanztomographie (fMRT) zu den am häufigsten genutzten externen Technologien für die Aufzeichnung von Hirnaktivität. Für die Erfassung der Hirnsignale brauchte man daher bislang ein Labor. Dies beginnt sich zu ändern.
Bei der Strategieentwicklung für diese neuartigen Schnittstellen zwischen Mensch und Technologie sollten Unternehmen zunächst gründlich überprüfen, welche Geschäftsbereiche und Herausforderungen sie dadurch verändern können.
Überlegen Sie zunächst, welche Erwartungen sich aus einem besseren Verständnis des Menschen durch die Technologie ergeben. Einige der vielversprechendsten Anwendungsfälle gibt es in Bereichen, wo Mensch und Maschine im gleichen Raum tätig sind. Unternehmen könnten beispielsweise Produktionsvorgänge sicherer und effizienter gestalten, wenn Roboter vorausahnen, was die Menschen machen wollen.
Ein weiterer Bereich, der sich verändern wird, ist die Steuerung von Technolgie in der direkten Zusammenarbeit von Mensch und Maschine. Neurotech ermöglicht ein viel besseres Verständnis unseres Gehirns und kann dadurch neue Wege eröffnen wie wir uns zukünftig möglicherweise sogar auf viel natürlicherere Weise mit Technologie verbinden können.
Diese neuartige Schnittstelle zwischen Mensch und Technologie könnte zudem die Entwicklung neuer Produkte und Dienstleistungen vorantreiben. Durch die Erfassung der Hirnaktivität könnten sich Menschen beispielsweise besser „selbst verstehen“. L'Oréal arbeitet mit EMOTIV daran, dass Menschen ihre Duftpräferenzen besser verstehen.
Wieder andere nutzen diese neue Verbindung als Sicherheitsmaßnahme. Meili Technologies ist ein Start-up für mehr Fahrzeugsicherheit. Dort nutzt man Deep Learning, visuelle Eingaben und Sensoren im Fahrzeuginnenraum, um zu erkennen, ob die Fahrerin oder der Fahrer einen Herzinfarkt, einen Krampfanfall, einen Schlaganfall oder einen anderen medizinischen Notfall hat.
Unternehmen müssen die Risiken dieser Technologien bewerten und sich überlegen, welche neuen Vorschriften und Sicherheitsmaßnahmen nötig sind. Verantwortungsbewusste Unternehmen beginnen damit bereits jetzt, ohne auf die Regulierungsbehörden zu warten. Sie nutzen stattdessen die bereits vorhandenen Gesetze zur Biometrie und arbeiten mit der Medizinbranche zusammen.
Noch stärker als bei den anderen Trends dieses Jahres, wird Sicherheit bei der erfolgreichen Nutzung von neuartigen Schnittstellen zwischen Mensch und Technologie zum entscheidenden Faktor für Unternehmen und Verbraucher:innen.
Ob Menschen diese tiefgreifenden und vernetzten Tools akzeptieren, hängt davon ab, ob sie zumindest selbst in der Hand haben, welche Informationen sie weitergeben. Dies muss bereits bei der Entwicklung der nächsten Generation von Tools mit einer Mensch-Maschine-Schnittstelle berücksichtigt werden. Menschen müssen entweder der Weitergabe ihrer Daten oder Telemetrie für den jeweiligen Zweck explizit zustimmen oder die Weitergabe von irrelevanten oder sensiblen Daten untersagen können.
Daraus ergibt sich ein hohes Maß an Verantwortung, zugleich bietet es große Chancen. Natürlich werden Menschen Fragen haben, und Bedenken zum Thema Datenschutz sind eine der ersten und wichtigsten Hürden, die Unternehmen überwinden müssen. Aber die Gelegenheit, ein noch tieferes Verständnis für die Wünsche, Absichten und Intentionen von Menschen zu entwickeln, ist es allemal wert.
Die Welt steht am möglicherweise wichtigsten technologischen Wendepunkt ihrer Geschichte. Unternehmen – durch die Entscheidungen ihrer Führungskräfte – kommt dabei eine zentrale Position zu und sie bestimmen, wohin die Reise geht.
Zunehmendes Wachstum und Innovation birgt jedoch auch Risiken. Denn dies eröffnet (neue) Möglichkeiten für Betrug, Fehlinformationen und Sicherheitsverstöße. Werkzeuge, die zwar mit menschlichen Fähigkeiten, aber ohne menschliche Intelligenz oder sogar Gewissen ausgestattet sind, können sowohl das Unternehmensergebnis als auch das Gemeinwohl beeinträchtigen.
Im Zeitalter von Technologien, die zunehmend menschenähnlicher sind, kann jedes Produkt, jede Dienstleistung, die ein Unternehmen auf den Markt bringt, Leben verändern, Gemeinschaften stärken und Veränderungen herbeiführen – positiv wie negativ. Unternehmen werden daher unweigerlich mit der heiklen Frage konfrontiert, ob sie schnell oder sorgfältig reagieren, und dabei damit rechnen müssen, dass Wettbewerber oder andere Länder möglicherweise nicht dieselben Bedenken hegen oder die gleichen Vorgaben machen.
Trotzdem dürfen wir Sicherheit nicht als Einschränkung, sondern als Chance und entscheidende Möglichkeit verstehen, Vertrauen zwischen Mensch und Maschine aufzubauen. Wir müssen Technologien entwickeln, die den Nutzer:innen helfen, ihre Ziele zu erreichen und sie in ihrem Tun bestärken. Dieses Konzept nennen wir „positive Engineering“. Darüber hinaus muss Technologie immer mehr ethischen Anforderungen gerecht werden wie z. B. Inklusion, Barrierefreiheit, Nachhaltigkeit, Beschäftigungssicherheit, Schutz geistigen Eigentums im Kreativbereich und vieles mehr. Wobei alle den gleich Ursprung haben: Wie finden wir ein Gleichgewicht zwischen dem, was wir mit Technologie erreichen können, und unseren grundlegenden menschlichen Werten?
Dies ist ein entscheidender Moment für Technologie und Menschen gleichermaßen, und die Welt ist bereit für ihre Mitgestaltung.