Automatisiertes Wachstum

Künstliche Intelligenz birgt höheres Wachstumspotenzial als seinerzeit die Dampfmaschine. Die Produktionszuwächse werden sich auch auf den Aktienmärkten widerspiegeln. Die Risiken dürfen aber nicht unbeachtet bleiben, das wurde beim diesjährigen Kathrein-Talk klar.

Die jüngsten Höchststände an den Börsen sind zu einem guten Teil der Künstlichen Intelligenz (KI) geschuldet. Aber nicht, weil KI besser investieren würde, sondern weil die Fantasie der Investoren durch das Potenzial der KI angeregt wird. Das wird auch von handfesten Zahlen einiger weniger Tech-Konzerne untermauert: So weisen fünf Unternehmen im S&P 500 heuer bereits eine durchschnittliche Entwicklung von 40 Prozent auf, während 95 Unternehmen nur zwei Prozent Performance erzielten und die übrigen 400 Titel sogar nur ein Prozent, verdeutlichte Stefan Neubauer, Vorstandsmitglied der Kathrein Privatbank, bei einer Kundenveranstaltung in der MQ Libelle, die um das Thema Künstliche Intelligenz kreiste.

Harald Holzer, Vorstandsmitglied und Chief Investment Officer der Kathrein Privatbank, rechnet damit, dass die Künstliche Intelligenz auch die mittelfristige Aktienperformance positiv beeinflussen wird. Diese Prognose wird durch verschiedene Studien gestützt. So rechnet etwa Goldman Sachs damit, dass durch KI die Produktivität in den nächsten 10 Jahren um jährlich 1,5 Prozentpunkte höher sein werde. Eine McKinsey-Studie ist nicht ganz so optimistisch, sieht aber ebenfalls eine Steigerung der Arbeitsproduktivität um rund 0,5 Prozent jährlich, das wäre ein größerer Effekt als damals durch die Dampfmaschinen (0,3 Prozent). Der jährliche Produktivitätszuwachs wird mit bis zu 4,1 Billi­onen Euro beziffert. „Das mündet in höhere Wachstumsraten für die Unternehmen und damit in höhere Aktienkurse“, erklärt Holzer das Kurspotenzial. In den Aktienportfolios der Kathrein stünden momentan etwa 11 Prozent der Titel mit KI in Verbindung, insbesondere der Megatrends-Fonds legt einen starken Fokus auf Artificial Intelligence. Die Gefahr einer Marktübertreibung um das Thema sieht Holzer momentan nicht, aber „selbst wenn es eine Blase ist, wird sie nicht den öffentlichen Markt betreffen, sondern vor allem Private-Equity-Investoren“. Abgesehen von Investmentchancen beschäftigt sich die Kathrein Privatbank auch intern damit, ob und wie man mit künstlicher Unterstützung bessere Investmententscheidungen treffen kann. „Da stehen wir aber erst am Beginn“, berichtet Holzer. 

KI-Strategie notwendig

Die volkswirtschaftlichen Auswirkungen durch KI entstehen durch neue Geschäftsfelder und vor allem Effizienzgewinne. „Wo wir früher eine Woche gebraucht haben, produzieren wir jetzt einen Prototyp an einem Tag“, schildert Sabine Walch ihre Erfahrung mit KI. Walch ist Gründerin und CEO von danube.ai, einem Start-up, das KI-Applikationen entwickelt. White-Collar-Worker, also Büromitarbeiter, sind vom disruptiven Potenzial der KI besonders betroffen. „Die Routine kann abgenommen werden und man kann sich auf die Kernkompetenzen konzentrieren. Es geht um die Effizienzsteigerung jedes Einzelnen“, nennt Walch einen Vorteil. Sie rät jedem Unternehmen eindringlich dazu, eine KI-Strategie auszuarbeiten. Durch die automatisierte Erledigung von manuellen Routinearbeiten biete sich der Einsatz von KI vor allem in den Bereichen Kundenservice, Marketing und Vertrieb, Planungsmanagement und Content- bzw. Software-Programmierung an. „Immer wenn Fehlerfreiheit, große Rechenleistung und Genauigkeit zählen, ist KI der Gewinner“, so Walch. 

Das Bundesrechenzentrum hat den Einsatz von KI bereits genau analysiert, wie Matthias Lichtenthaler, Head of Digital Government & Innovation, betont. Die Ausgangslage: „Die Pensionsierungswelle in der öffentlichen Verwaltung ist substanziell. Es gehen 48 Prozent aller Mitarbeiter in den nächsten 9 Jahren in Pension. Man weiß schon jetzt, dass man so viele junge Leute für die spannenden Herausforderungen nicht gewinnen wird können. Deshalb ist es hier ein Ansatzpunkt, KI einzusetzen.“ 20 bis 30 Prozent der Tätigkeiten in der Verwaltung ließen sich automatisieren. Die Künstliche Intelligenz lerne bereits mit ganz gutem Erfolg, was relevantes Wissen ist. In einigen Bereichen sei es auch gut, wenn keine menschlichen Entscheidungskriterien einfließen. „Es werden keine Förderanträge abgelehnt, nur weil ein Mitarbeiter heute mal nicht so gut drauf ist“, verdeutlicht Lichtenthaler. Bei komplexen Entscheidungen werde es weiterhin den Mensch brauchen. 

Generell appelliert Lichtenthaler für eine stärkere Auseinandersetzung mit dem Thema. Das Grundwissen könnte hierzulande ähnlich wie in Finnland über ein „Mini-AI-Examen“ gefördert werden. 27 Prozent der erwachsenen Finnen haben diese Prüfung bereits absolviert und zeigen nun eine höhere Bereitschaft, sich mit dem Thema auseinanderzusetzen. Selbst wenn man digitale Kompetenzen jetzt in der Volksschule unterrichtet, werde das die enorme Bildungslücke nicht schließen. Unternehmen und Bildungseinrichtungen seien nun gefordert, beim Aufbau der notwendigen Skills zu unterstützen. 

Undefinierte Schnittstelle 

Schätzungen, wonach 50 Prozent aller Jobs weltweit durch KI bedroht seien, kann Sabine Köszegi, Professorin für Arbeitswissenschaft und Organisation am Institut für Managementwissenschaften der TU Wien, nicht nachvollziehen. Man müsse das Automatisierungspotenzial doch differenzierter betrachten. Sie kalkuliert damit, dass bei etwa 60 Prozent aller Jobs rund 30 Prozent automatisierbar wären, ob dies tatsächlich der Fall sein wird, hänge von der Wirtschaftlichkeit ab. „Denn es kann weiterhin sein, dass Menschen günstiger sind, wenn das Programmieren einer KI extrem aufwändig ist oder entsprechende Daten fehlen“, so Köszegi und weiter: „Menschen müssen am Ende des Tages auch die Aufsicht über die KI haben.“ Diese Mensch-Maschinen-Schnittstelle sei noch nicht ausgereift. Im Labor würden viele Systeme funktionieren, aber in der komplexen Praxis ist einiges unklar, wie etwa autonome Autobusse im Testbetrieb zeigen. Auch bei einem Flug mit Autopiloten sitzen nach wie vor zwei Piloten im Cockpit, die bei Gefahr eingreifen können und dafür laufend mit einem Flugsimulator trainieren müssen. Mit steigendem Grad der Automatisierung werde man auch mehr Cyber-Security-Experten brauchen. Köszegis Appell: „Wir müssen Maschinen designen, die uns als Menschen ermächtigen und nicht entmächtigen.“

Die Grenzen der Intelligenz

Large Language Models wie Chat GPT, also computergestützten Sprachmodellen, sind zudem Grenzen gesetzt, wie Köszegi weiß: „KI-Systeme, die auf neuronalen Netzen beruhen, können nicht unterscheiden, ob der Hahn kräht, weil die Sonne aufgeht, oder ob die Sonne aufgeht, weil der Hahn kräht.“ Nicht nur mit Kausalitäten hat Chat GPT Probleme, auch an folgender Aufgabe scheitert das System kläglich: Nenne die höchstmögliche vierstellige Zahl mit einer Sieben. Die Korrelation zum heutigen Tag schafft Chat GPT ebenfalls nicht. Aber das wahre Problem: „Immer wenn das System etwas nicht weiß, dann erfindet es Dinge“, warnt Köszegi. Intelligenz ist eben auch zu wissen, was man nicht weiß.

Bei den zugrundeliegenden Daten aus dem Internet unterscheidet Chat GPT auch nicht, ob es sich um wissenschaftliche Texte oder Fake News handelt. Large Language Models müssen zudem immer wieder neu programmiert werden. Mit dem Begriff „Künstliche Intelligenz“ wollte man beim Kathrein-Talk deshalb bewusst sparsam umgehen. „Eine wirkliche künstliche Intelligenz, die nicht nur rationale Entscheidungen aufgrund von Lernprozessen fällen kann, sondern auch abgewogene Bauchentscheidungen trifft, wird es nie geben“, ist Lichtenthaler überzeugt und spricht lieber von einer Unterstützung natürlicher Intelligenz. 

Sabine Walch hält die Diskussion über Intelligenz und Empathie grundsätzlich für falsch und meint zugespitzt: „Ich würde auch beim Menschen nicht darüber diskutieren wollen, was Intelligenz ist.“ Sie spricht lieber von „aufgabenerfüllend“. Und sehr wohl könnten Maschinen empathische Entscheidungen treffen: „Wenn man Empathie zeigt, dann hört man zu und reagiert, das können Maschinen.“ Wissenschafterin Sabine Köszegi hakt ein: „Maschinen können nur rechnen. Das gesamte Erfahrungswissen lässt sich digital nicht abbilden.“ Sie warnt davor, dass es für Menschen durch den Einsatz von KI insgesamt schwieriger werde, überhaupt eine Expertise aufzubauen, die ja häufig aus viel Erfahrung entsteht. Gleichzeitig gibt es ein Systemrisiko, wenn alle auf die gleichen KI-Modelle zurückgreifen. Die Mehrzahl der KI-Anwendungen in Unternehmen seien allerdings vollkommen unproblematisch. 

Die Angst vor einer technologischen Singularität, der Zeitpunkt, bei dem sich Maschinen mittels KI selbst weiterentwickeln, ist für die Experten aktuell unbegründet. Maschinen erfinden keine Eigenmotivation, um jemandem zu schaden oder sich selbst weiterzuentwickeln. „Die wirkliche Gefahr von KI besteht in den Systemeffekten und im Missbrauch durch Menschen, um andere zu überwachen, auszubeuten oder die Demokratie zu untergraben. All das könnten sie mit den Systemen heute schon machen, deshalb müssen wir regulieren“, findet Köszegi. Wichtig sei es jedoch, die richtige Balance zu finden und nicht durch eine Überregulierung eine Weiterentwicklung in Europa zu behindern. Denn wie Walch betont: „Wenn man einmal die Dampfmaschine verwendet hat, wird man nicht mehr auf einen Ochsenkarren umsteigen, sondern die Chance ergreifen, sich weiterzuentwickeln.“ 

AusgabeRZ26–22

Mehr lesen

Aktuelles

Die Welt der Raiffeisenzeitung