Controller Magazin Special 2024

32 Neben Unternehmen, deren Geschäftsmodell direkt auf KI basiert, nutzen zahlreiche andere die KI als leistungsfähiges Werkzeug, um ihre Effizienz zu steigern, Kosten zu senken und das Kundenerlebnis zu verbessern. So versucht Europas wertvollster Technologiekonzern ASML, ein Sprachmodell mit den Bedienungsanleitungen seiner Maschinen zu trainieren. Techniker müssen dann bei Problemen nicht mehr Hunderte von Handbuchseiten durchforsten, sondern können direkt die KI nach einer Lösung befragen1. Immer häufiger wird KI auch für interne Prozesse in den Unternehmen eingesetzt. Im Finanzbereich können Risikobewertungen von Kunden viel schneller durchgeführt werden, verdächtige Transaktionen früher entdeckt und Zahlungsabwicklungen automatisiert werden. Im Controlling hat sich mit Advanced Analytics ein eigener Bereich etabliert, der verschiedenste KI-Technologien kombiniert, um zum Beispiel Forecasts schneller und genauer erstellen zu können. Ein weiteres vielfältiges Feld ist die Nutzung generativer KI durch Mitarbeitende. Diese Technologie, die Inhalte wie Texte, Bilder und Musik selbstständig erzeugen kann, eröffnet völlig neue Wege für kreatives und analytisches Arbeiten. Generative KI kann beispielsweise Designern helfen, inspirierende Entwürfe zu kreieren, Marketingteams unterstützen, einzigartige Inhalte für Kampagnen zu generieren, oder Mitarbeitende bei typischen Office-Aufgaben entlasten, wie es z. B. Microsofts Copilot verspricht2. Wichtig ist dabei, dass Mitarbeitende lernen, mit diesen Werkzeugen umzugehen und ihr Potenzial im Einklang mit ethischen Richtlinien und Unternehmenszielen voll auszuschöpfen. Herausforderungen und Probleme beim Einsatz von KI Während die Einsatzmöglichkeiten von KI in Unternehmen vielfältig und verheißungsvoll sind, gehen sie auch mit einer Reihe von Herausforderungen und Problemen einher. Diese reichen von technischen und operativen Schwierigkeiten bis hin zu tiefergehenden ethischen und rechtlichen Fragen. Eines der drängendsten Probleme im Zusammenhang mit dem Einsatz von KI ist das Risiko von Verzerrungen (Bias) und Diskriminierung in den Entscheidungen, die von KI-Systemen getroffen werden. Dieser Bias kann unbeabsichtigt in die Algorithmen einfließen, etwa durch einseitige Datensätze, die zum Training der KI verwendet werden. Solche Verzerrungen können dazu führen, dass KI-Systeme, die für die Personalauswahl oder Kreditvergabe eingesetzt werden, bestimmte Gruppen von Menschen unfair behandeln. Ein bekanntes Beispiel ist der Fehler, der Google 2015 in seiner Foto-App unterlaufen ist. Wahrscheinlich aufgrund ungeeigneten Trainingsmaterials konnte der Algorithmus zur Bilderkennung nicht zwischen schwarzen Menschen und Gorillas unterscheiden3. Dieser Fehler konnte wohl bis 2018 nicht korrigiert werden4. Um solche Bias zu minimieren, ist es notwendig, Diversität in den KI-Modellen zu fördern und kontinuier- liche Überprüfungen und Anpassungen der Algorithmen vorzunehmen, um Diskriminierung aktiv entgegenzuwirken. Dass es dabei auf das richtige Trainingsmaterial ankommt, hat Google Ende Februar 2024 feststellen müssen. Sein Sprachmodell Gemini hat es mit der Diversität übertrieben und auf die Anforderung „erstelle ein Bild eines deutschen Soldaten im Jahr 1943“ unter anderem eine asiatische Frau in Wehrmachtsuniform dargestellt5. Ein weiteres bedeutendes Problem betrifft die Frage der Verantwortlichkeit, wenn es zu Fehlentscheidungen durch KI kommt. Wer ist verantwortlich, wenn ein autonomes Fahrzeug einen Unfall verursacht? Wer haftet, wenn eine von KI getroffene Personalentscheidung sich als diskriminierend herausstellt? Diese Fragen sind nicht nur ethischer, sondern auch rechtlicher Natur und erfordern klare Richtlinien und Regelungen. Unternehmen müssen sich mit diesen Fragen auseinandersetzen und klare Verantwortlichkeiten definieren, um Vertrauen bei Kunden, Mitarbeitenden und der breiten Öffentlichkeit zu schaffen und zu erhalten. Der umfangreiche Einsatz von KI in Unternehmen erfordert den Zugriff auf große Mengen an Daten, was ernsthafte Bedenken hinsichtlich Datenschutz und Datensicherheit aufwirft. So hat Italien zweimal den Einsatz von ChatGPT aufgrund vermuteter Verstöße gegen die DSGVO verboten6. Aber nicht nur Betreiber von KI-Modellen können gegen den Datenschutz verstoßen, auch die Mitarbeitenden in Unternehmen selbst. Laut einer Umfrage von Cisco7 haben 62 % der Befragten schon Informationen über interne Prozesse in generative KIs eingegeben und 38 % Namen und Daten von Kunden. Wie können Unternehmen sicherstellen, dass die von ihnen gesammelten und analysierten Daten geschützt sind? Wie gehen sie mit sensiblen Informationen um und wie können sie die Privatsphäre ihrer Kunden und Mitarbeitenden wahren? In einer Zeit, in der Daten als das neue Öl gelten, ist es entscheidend, strenge Datenschutzrichtlinien zu implementieren und technische Sicherheitsmaßnahmen zu ergreifen, um Datenlecks und Missbrauch zu verhindern. „Im Controlling hat sich mit Advanced Analytics ein eigener Bereich etabliert, der verschiedenste KI-Technologien kombiniert ...“ „Eines der drängendsten Probleme im Zusammenhang mit dem Einsatz von KI ist das Risiko von Verzerrungen (Bias) und Diskriminierung in den Entscheidungen“

RkJQdWJsaXNoZXIy Mjc4MQ==