Künstliche Intelligenz für alle: Nutzen oder Risiko?

Die Popularität von Tools wie ChatGPT und Dall-E macht KI für ein breites Publikum zugänglicher denn je. Einige behaupten ohne mit der Wimper zu zucken den Sieg der KI-Revolution, während andere glauben, dass ihnen ein Terminator-Film bevorsteht. Die Wahrheit liegt wie immer in der Mitte.
Vielleicht sagt Ihnen der Name ChatGPT etwas. Seit OpenAI am 30. November der Welt eine Demo vorgestellt hat, gibt es nichts Cooleres an einem Chatbot. Der Erfolg des Tools ist so unerwartet, dass OpenAI sogar über eine kostenpflichtige Version nachdenkt. Zuvor hatte das Unternehmen auch mit der Einführung seines KI-Bildgenerators Dall-E im September die Aufmerksamkeit der Öffentlichkeit auf sich gezogen.
Die Einführung von Tools wie ChatGPT und Dall-E schafft neue Impulse in der Entwicklung und Einführung von KI. Auch wenn die Werkzeuge unschuldig wirken, symbolisieren sie für viele Menschen die große Durchdringung der künstlichen Intelligenz in unserer Gesellschaft. KI ist nicht mehr nur etwas für große Unternehmen; Von nun an wäre es sogar für den Mann auf der Straße möglich, sie zu benutzen.
Dadurch gehen die unterschiedlichen Lager rund um KI immer weiter auseinander. Befürworter hoffen, dass die lang erwartete KI-Revolution 2023 endlich abgeschlossen sein wird. Gegner befürchten derweil die möglichen Folgen, wenn KI-Technologie in die falschen Hände gerät. Wer hat Recht?
Generative KI: Lösungen auf Knopfdruck
Zunächst einmal sollten Sie wissen, dass ein Programm wie ChatGPT nicht aus dem Nichts entstanden ist, sondern das Ergebnis mehrjähriger Forschung und Entwicklung in Labors ist. Auch der Begriff „künstliche Intelligenz“ ist ein Überbegriff, der gerne verwendet und (zumindest oft) missbraucht wird, um verschiedene Arten intelligenter Algorithmen zu beschreiben.
ChatGPT und Dall-E sind „generative KI“-Disziplinen. Diese Art von KI zeichnet sich durch ihre Fähigkeit aus, einzigartige Inhalte zu erstellen, während analytische KI beispielsweise darauf trainiert ist, Rohdaten in einfachere Berichte zu reduzieren, aber keine Daten erfinden kann. ChatGPT kann gebeten werden, eine Dissertation aus begrenztem Input zu schreiben, Dall-E verwandelt eine Textbeschreibung in ein fotorealistisches Bild, und GitHub CoPilot generiert (manchmal) Hochleistungscode aus einem Computerproblem, das Sie ihm senden.
Die kreativen Möglichkeiten der generativen KI scheinen endlos, da es sich um ein System handelt, das das Potenzial hat, einen enormen sozialen Einfluss zu haben. Gartner hat die generative KI bereits Ende 2021 zu einer der fünf Technologien gemacht, die es in den kommenden Jahren zu beobachten gilt. Einer der Hauptvorteile der generativen KI besteht darin, dass Modelle, sobald eine gute Grundlage vorhanden ist, relativ wenig Daten benötigen, um sich zu verbessern.
Organisationen mit weniger Daten können sich dem Tanz anschließen. Laut Gartner wird die generative KI daher erhebliche Veränderungen in vielen Branchen bewirken, von der Fertigung über das Gesundheitswesen bis hin zu den Medien.

Plagiate, Deepfakes und Viren
Leider dauerte es nicht lange, bis auch schelmische Menschen die Vorteile der generativen KI entdeckten. GitHub CoPilot hat bereits Plagiatsstreitigkeiten ausgelöst, und Forscher von Check Point haben untersucht, wie ChatGPT verwendet werden kann, um Phishing-E-Mails und gefährliche Software sehr einfach zu erstellen. Dall-E wiederum wird die Verbreitung von Deepfakes erleichtern.
Obwohl OpenAI behauptet, dass die Kontrollen eingebaut sind, um eine unbefugte Nutzung zu verhindern, zeigt die Erfahrung von Check Point, wie ineffektiv sie sind. Wenn ChatGPT buchstäblich aufgefordert wird, eine Phishing-E-Mail zu erstellen, lehnt der Bot ab. Indem Sie Ihre Befehle ein wenig manipulieren, können die Algorithmen leicht glauben gemacht werden, dass Sie keine bösen Absichten haben. CEO Sam Altman erkennt diese Einschränkungen übrigens auch freundlich an.
Wir könnten den Fallstricken der KI einen langen Absatz widmen, aber es stellt sich heraus, dass ChatGPT auch gründlich darüber nachdenken kann (siehe Screenshot). Diese Art von Risiken ermutigt Verschwörer und Verschwörer, die versuchen, leichtgläubige Unternehmensführer daran zu hindern, KI-Technologie in ihren Organisationen einzuführen. Auch namhafte Persönlichkeiten der Tech-Branche wie Elon Musk, Mitbegründer von OpenAI, schlagen seit Jahren Alarm.

Auf dem Weg zur Selbsterkenntnis?
Auch die Prognosen, dass künstliche Intelligenz die Welt beherrschen und die Menschheit dem Untergang weihen wird, sind derzeit eine gewaltige Übertreibung des Standes der Technik. Man kann sagen, dass die Technologien von OpenAI beeindruckend sind, aber die Entwicklung von KI ist ein sich entwickelnder Prozess.
Wissenschaftlich wird zur Bewertung von KI-Systemen eine zweiteilige Skala verwendet. Die erste Maßnahme bezieht sich auf die Fähigkeiten der Algorithmen. Derzeit befinden wir uns noch im Stadium der „schwachen künstlichen Intelligenz“, das heißt, die Intelligenz der Algorithmen kann noch nicht mit der menschlichen Intelligenz mithalten und konzentriert sich auf bestimmte Aufgaben.
Zum Beispiel kann Dall-E gut zeichnen, aber fragen Sie das Programm nicht, wie das Wetter morgen sein wird. Theoretisch fallen auch Alltagsgeräte wie Grafikrechner unter schwache KI. On parle «d’intelligence artificielle generale» lorsque l’IA aurait la capacité d’effectuer n’importe quelle tâche intelligentau même niveau qu’un humain et de «IA super» im Moment où l’intelligence artificielle dépasse la capacité de raisonnement menschheit.
Die zweite Teilung ist aufgrund der Funktionalität möglich. Die meisten modernen KI-Systeme sind interaktiv; Sie sind darauf programmiert, eine bestimmte Aufgabe gut auszuführen, aber nicht mehr. Denken Sie zum Beispiel an Google Assistant oder Siri; Sie können einfache Fragen gut beantworten, sind aber für komplexe Aufgaben nicht ausgebildet.
Die fortschrittlichsten Modelle haben bereits eine begrenzte Speicherkapazität entwickelt, um Daten für einen begrenzten Zeitraum zu speichern. Diese Funktion ist wichtig für selbstfahrende Fahrzeuge, die unter anderem in der Lage sein müssen, die Geschwindigkeit und Entfernung benachbarter Autos sowie Geschwindigkeitsbegrenzungen aufzuzeichnen und sich daran zu erinnern, um sicher navigieren zu können. ChatGPT ist in der Lage, sich an Ihre vorherigen Fragen zu erinnern und diese zu beantworten. Auch hier kann noch nicht von echter „Intelligenz“ gesprochen werden.
Können wir Maschinen steuern, wenn sie intelligenter sind als wir?
Darüber hinaus muss KI in der Lage sein, menschliche Emotionen zu verstehen. Der Höhepunkt ist erreicht, wenn Maschinen selbstbewusst werden. Es ist noch ein langer Weg, obwohl ein (gefeuerter) Ingenieur von Google letzten Sommer etwas anderes behauptete.
Daher basieren die entlarvten Bilder und Verschwörungstheorien hauptsächlich darauf, was passieren würde, wenn die KI tatsächlich selbstbewusst und hochintelligent würde. Wie werden wir in der Lage sein, Maschinen zu kontrollieren, die intelligenter sind als wir? Das ist eine Frage, die niemand mit Sicherheit zu beantworten wagt.
gewerbliche Maschinen
Wie bei allen modernen Technologien steckt hinter der KI eine Geschäftsmaschine. Das wirtschaftliche Potenzial von KI ist enorm: PricewaterhouseCoopers prognostiziert, dass KI bis 2030 15,7 Billionen US-Dollar zur Weltwirtschaft beitragen wird. Forschung und Entwicklung wird heute hauptsächlich von kleinen und nicht so kleinen Start-ups betrieben, aber Big Tech übernimmt langsam aber sicher.
Microsoft hat bereits viel Geld in OpenAI investiert und will noch dieses Jahr die Früchte ernten. Mit den angekündigten Zusammenschlüssen von Bing, Office und Azure will Microsoft die KI „demokratisieren“, indem es die OpenAI-Technologie kolonialisiert. Google, das KI-Modelle wie LaMDA im eigenen Haus gebaut hat, sah zunächst so aus, als ob der Wind gegen den Willen seiner Mitarbeiter wehte, scheint nun aber seine Meinung zu ändern. Google wird am 8. Januar eine Veranstaltung abhalten, um seine Pläne bekannt zu geben.
Im Kontext der künstlichen Intelligenz ist es wichtig zu wissen, wer die Algorithmen antreibt, und das ist kein triviales Detail. Um Algorithmen zu trainieren, werden (qualitative) Daten benötigt. Die verwendeten Daten helfen dabei, das Ergebnis des Systems zu bestimmen. Wer also die Daten hat, hat auch die Macht. Um die Neutralität von KI-Systemen zu verbessern, ist Datenvielfalt unerlässlich.
McKinsey stellte fest, dass KI zwar das Potenzial hat, die Lebensqualität von Bürgern, Unternehmen und Regierungen zu verbessern, aber auch die digitale und wirtschaftliche Kluft in der Gesellschaft vergrößern könnte. Organisationen, die es wagen, jetzt in KI zu investieren, werden in einigen Jahren mit diesen Investitionen belohnt.
Aber diejenigen ohne Zugang zur Technologie laufen zunehmend Gefahr, abgehängt zu werden. Um das volle Potenzial von KI auszuschöpfen, ist es wichtig, dass alle gleichberechtigten Zugang zur Technologie haben. Leichter gesagt als getan.
Klare Spielregeln
Die Einführung von KI nimmt weiterhin exponentiell zu. Bis 2022 werden 35 % der Unternehmen Algorithmen aktiv in ihrem täglichen Betrieb einsetzen, und 42 % befinden sich in der Entdeckungsphase. IBM erreichte diese Zahlen in seinem Global AI Adoption Index. Wir können noch nicht von einer Revolution sprechen. Daher ist es derzeit unmöglich, die Auswirkungen von KI genau vorherzusagen. Der Hype um ChatGPT kann jedoch dazu führen, dass wir es früher als erwartet entdecken.
Daher ist es wichtig, jetzt zu antizipieren, was die Zukunft verspricht. Es wird notwendig sein, einen rechtlichen Bezugsrahmen für die Entwicklung und den Einsatz künstlicher Intelligenz zu schaffen, mit dem wir verantwortungsbewusste Unternehmen zur Rechenschaft ziehen können.
Genau hier drückt der Schuh; Auf nationaler und internationaler Ebene ist es schwierig, klare Spielregeln zu finden. Es wird auch von Akteuren der Branche gefordert, was zeigt, dass der Wille vorhanden ist, die Technologie zum Wohle der Allgemeinheit voranzutreiben.
Das europäische Gesetz zur Künstlichen Intelligenz könnte eine Umkehrung der Situation erklären. Der Gesetzentwurf konzentriert sich auf die Definition von Kriterien zur Bewertung der Risiken eines KI-Systems. Die sogenannte „Hochrisiko“-KI sollte streng reguliert oder sogar ganz einfach vom Markt verbannt werden. Der aktuelle Text muss noch mehrere Überarbeitungszyklen durchlaufen, aber das Gesetz könnte ein Modell für andere Länder sein.
Künstliche Intelligenz ist hier für die Zukunft, das zeigt sich. Es gibt absolut keinen Grund, davor Angst zu haben, aber wir sollten auch die potenziellen Risiken nicht ignorieren. Wenn alle verantwortungsvoll mit Technik umgehen, wird Künstliche Intelligenz die größten gesellschaftlichen Veränderungen seit dem Start des World Wide Web vorantreiben. Lassen Sie diese KI-Revolution beginnen!
Um das volle Potenzial von KI auszuschöpfen, müssen wir klarere Spielregeln definieren.