Wie gefährlich ist KI / Künstliche Intelligenz?

Wie gefährlich ist KI / Künstliche Intelligenz Wie gefährlich ist KI / Künstliche Intelligenz

Die Frage treibt aktuell Verbraucher, Politiker und Juristen um: „Wie gefährlich ist KI?“ Fragt man die Künstliche Intelligenz selbst, so gibt der Bot ChatGPT folgende Antwort:

Rechtsanwalt zu diesem Thema finden

Hier einen Rechtsanwalt zu diesem Thema finden

Verbraucherschutz.tv kooperiert deutschlandweit mit vielen kompetenten Rechtsanwälten auch aus Ihrer Region. Sie sind Anwalt und möchten hier veröffentlichen? Bitte Mail an usch@talking-text.de

Die Gefährlichkeit von künstlicher Intelligenz (KI) hängt von verschiedenen Faktoren ab, einschließlich der Art der KI, wie sie eingesetzt wird und welche Kontrollmechanismen vorhanden sind. “

Inhaltsangabe:

Dazu kurz einige Erläuterungen zu ChatGPT: Chat steht für Chat, also „Plaudern, Kommunizieren, sich Austauschen“. GPT steht für „Generative Pretrained Transformer“ (generativer, also erzeugender, vortrainierter Transformator). Die Abkürzung definiert die Arbeit eines sogenannten „Bots“, also eines Roboters. ChatGPT ist also ein an der Anlernung selbst lernender Roboter, mit dem man chatten kann. Der Bot beantwortet Fragen und ist teils sogar in der Lage, ein Gespräch zu führen.

Das „selbstlernend“ ist aber etwas missverständlich und in Gänze noch Fiktion, denn zur Weiterentwicklung und Perfektionierung einer KI muss diese optimiert werden, z.B. durch sogenannte  Klickarbeit, die als durchaus umstritten bewertet werden kann und erste Anleihen an der zukünftigen Diskussion um „KI und Arbeitsrecht“ nimmt.

ChatGPT ist als Roboter ein Produkt, das jemandem gehört und für dessen Entwicklung jemand verantwortlich ist. In diesem Fall ist ChatGPT Eigentum des amerikanischen Unternehmens OpenAI, das sich der KI-Forschung widmet (engl. artificial intelligence – AI). Es begann 2015 als gemeinnütziges Unternehmen, seit 2019 ist es – wundert das wen? – gewinnorientiert.

Befragt man ChatGPT weiter zur Gefährlichkeit der künstlichen Intelligenz, erhält man Hinweise auf wichtige Differenzierungen.

Schwache KI oder Starke KI?

Schwache KI-Systeme, die auf spezifische Aufgaben oder Probleme beschränkt sind, gelten in der Regel als weniger gefährlich. Starke KI, die menschenähnliche Intelligenz auf vielen Gebieten zeigt, könnte potenziell größere Risiken mit sich bringen. Die Absichten hinter der Entwicklung und dem Einsatz von KI sind entscheidend. KI kann für positive Zwecke, wie medizinische Forschung, Bildung und Umweltschutz, eingesetzt werden. Allerdings könnten missbräuchliche Absichten oder unbeabsichtigte Konsequenzen zu Risiken führen.

Wer setzt KI ein?

Schon heute nutzen nahezu alle Dienstleister, die im Internet unterwegs sind, KI zur Beantwortung von Kundenanfragen, für Bewertungssysteme, Terminabsprachen und ganz allgemein für unterschiedlichste Strategien zur Gewinnoptimierung und zur Perfektionierung der Prozesse. Kein Shop-System kommt ohne KI aus, wenn der Kunde erfolgreich durch die virtuellen Regale geführt wird. Einfache Systeme erkennen Kundenwünsche. So ist z.B. ein Crossover-Marketing schon KI, wenn es Kunden Artikel empfiehlt, die ihm aufgrund seines Nutzerverhaltens auch gefallen könnten.

Welche KI wird eingesetzt?

Dabei geht es um verschiedene Einsatzgebiete, wobei die „Starke KI“ Tendenzen zeigt, den Menschen mehr oder weniger zu ersetzen
Stark sind z.B. Autonome Systeme, die ohne menschliche Kontrolle handeln können. Sie bergen möglicherweise größere Gefahren. Es ist wichtig, dass es Mechanismen gibt, um die Aktionen von KI-Systemen zu überwachen und zu steuern.

Wie gefährlich ist der Einsatz künstlicher Intelligenz?

  • Sicherheitslücken in KI-Systemen könnten zu unerwünschten Folgen führen. Es ist wichtig, robuste Sicherheitsmaßnahmen zu implementieren, um Missbrauch oder unvorhergesehene Ereignisse zu verhindern.
  • Die Automatisierung durch KI kann zu Arbeitsplatzverlusten führen und soziale Herausforderungen mit sich bringen. Dabei kommt es auf den Standpunkt an, ob man das als Vor- oder Nachteil erkennt. Es ist wichtig, Maßnahmen zu ergreifen, um die sozialen Auswirkungen zu mildern.
  • Fehlgeleitete oder sogar außer Kontrolle geratene KI kann in betroffenen Systemen großen Schaden anrichten,

Wie kann man KI sicher machen?

Die Programmierung von KI-Systemen erfordert klare ethische Richtlinien und Wertesysteme, eingebettet in ein Rechtsgebiete verbindendes System aus wirksamen und anwendbaren Rechtsnormen. Wenn diese fehlen oder unzureichend sind, könnten KI-Systeme Entscheidungen treffen, die als problematisch oder gefährlich angesehen werden. Aktuell gibt es neben einer Richtlinie der EU noch kein nationales Regelwerk zum Recht der Künstlichen Intelligenz. Die Frage ist dabei auch nicht, wie man Systeme sicher machen kann – das wissen die Verantwortlichen ganz genau, es geht darum, wie man Verantwortliche zwingen kann, auch verantwortlich mit ihrer Macht umzugehen.

Die Gefährlichkeit von KI hängt also stark von den Rahmenbedingungen ab, unter denen sie entwickelt und eingesetzt wird. Die Forschung und Entwicklung von KI sollten ethisch verantwortungsbewusst und transparent erfolgen, um potenzielle Risiken zu minimieren. KI sollte sich mit der entsprechenden Gesetzgebung entwickeln. Internationale Standards und Regulierungen könnten ebenfalls dazu beitragen, den sicheren Einsatz von KI zu gewährleisten.

Was haben Anwälte mit Künstlicher Intelligenz zu tun?

  • Juristische Begleitung der Entwicklung von GPT
  • Vertretung von Geschädigten
  • Vertretung von Schädigern in Straf- und Zivilverfahren

Rechtsanwalt Fabian Fritsch – Kanzlei Hafencity, Hamburg – steht als Ansprechpartner und Mitglied einer aktuell unter der Regie von verbraucherschutz.tv in Gründung befindlichen „Arbeitsgemeinschaft Künstliche Intelligenz“ zu allen juristischen Fragen rund um das Recht der künstlichen Intelligenz schon jetzt zur Verfügung.

Einschätzung der KI-Gefahr

Von Hochleistungscomputern, die wie neuronale Netze arbeiten, gehen nach Meinung vieler Experten ungeheure Risiken aus, in etwa vergleichbar mit Pandemien oder einer atomaren Auseinandersetzung. Da es sich dabei um weltumspannende Risiken geht, fordern eben diese Experten globale Strategien zur Regulierung der Künstlichen Intelligenz.

Center for AI Safety

Quelle: Screenshot Website

Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg.

Eine Stellungnahme, die jetzt auf der Website des Center for AI Safety veröffentlicht wurde fordert:  „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“ Unterzeichnet wurde der Aufruf z.B. vom Erfinder des ChatBots ChatGPT, Sam Altmann.

Im Zentrum der Angst: Die Künstliche Intelligenz könnte mit der Fertigkeit, selbstständig Texte zu formulieren, nicht mit Menschen kommunizieren, sondern auch beginnen, mit ihnen zu konkurrieren, was der Auftakt für einen Krieg der Roboter wäre – bislang zum Glück nur Science Ficton. Zum Horrorszenario gehört ein unkontrolliertes Verbreiten von Falschinformationen, die die Menschheit komplett von den Entscheidungen dieser KI abhängig machen würde. KI würde z.B. Wahlergebnisse obsolet machen, weil sie Menschen manipulieren könnte.

Aber woher kommt der drastische Vergleich mit einer Atombombe? Ganz einfach: KI könnte z.B. in der Lage sein, weltweit den Strom abzuschalten oder streitenden Kontrahenten Gründe liefern, aufeinander loszugehen. KI könnte Kernschmelzen in Kraftwerken provozieren oder systematisch wichtige Prozesse beeinflussen.

BILD / Springer und die Künstliche Intelligenz

In einem Werbespot der BILD wird – versteckt unter dem dünnen Mäntelchen der Satire – KI eingesetzt, um wichtige Politiker Dinge sagen zu lassen, die sie niemals sagen würden. BILD gehört übrigens zum Springer-Konzern, der in offiziellen Verhandlungen mit den kommerziellen KI-Entwicklern von ChatGPT steht, um Kooperationsmöglichkeiten auszuloten und zu manifestieren. Wie passt es zusammen, dass ein mächtiges deutsches Medienunternehmen aktiv und in Vorreiterschaft die moralischen Grenzen der Künstlichen Intelligenz auslotet, auf der anderen Seite aber angeblich im Dienste der Menschheit dafür sorgen will, dass man bei der kommerziellen Entwicklung einer globalen KI zumindest Partner sein möchte.

Udo Schmallenberg, Herausgeber von verbraucherschutz.tv:

Da muss man nicht unbedingt Schlechtes vermuten, aber Schlussforderungen liegen einfach auf der Hand.

Die BILD sieht das natürlich aus BILD-Sicht:

Künstliche Intelligenz verändert unser Leben in vielen Bereichen. Wichtig ist, dass der Mensch dabei immer im Mittelpunkt steht. Bei Axel Springer beschäftigen wir uns damit, wie wir die Technologie bestmöglich nutzen können, um unsere Produkte und Inhalte noch besser zu machen. Dank KI werden wir unsere Angebote bald noch stärker auf die individuellen Bedürfnisse der Nutzer zuschneiden können. Sie ermöglicht uns auch, Zeit und Ressourcen gezielter einzusetzen. 

Wer jetzt denkt, dass junge, kritische Journalisten eingestellt werden, weil KI das Tagesgeschäft übernimmt, der hofft, dass Technik grundsätzlich Gutes gebiert.

In der angestrebten Zusammenarbeit mit ChatGPT wird nicht mal ansatzweise versucht, die finanziellen Interessen zu verschleiern.

Axel Springer und OpenAI gehen eine globale Partnerschaft ein, um unabhängigen Journalismus im Zeitalter der Künstlichen Intelligenz (KI) zu stärken. Die Initiative wird das Nutzungserlebnis mit ChatGPT um aktuelle und verlässliche Inhalte zu einer Vielzahl von Themen bereichern. Außerdem vergütet die Partnerschaft die Rolle Axel Springers bei der Mitwirkung an den Produkten von OpenAI. Dies stellt einen bedeutenden Schritt im Engagement beider Unternehmen dar, KI zur Verbesserung von Content-Angeboten zu nutzen und neue finanzielle Möglichkeiten für eine nachhaltige Zukunft des Journalismus zu schaffen.

Elon Musk fordert Pause der Künstlichen Intelligenz

Auch Elon Musk blitzt mit einem menschenfreundlichen Antlitz auf zwei Seiten einer Medaille: Der Tec-Mogul hat eine sechsmonatige Pause bei der Entwicklung von Künstlicher Intelligenz vorgeschlagen, um die regulativen Rahmenbedingungen zu schaffen. Nimmt ihm das wirklich jemand ab? Kurz zuvor hatte Musk eine eigene Firma zur Entwicklung der Künstlichen Intelligenz gegründet. Offen bleibt daher, ob die geforderte Pause Musk Zeit verschaffen soll, um aufzuholen, oder ob er mit der Veröffentlichung wirklich altruistische Ziele verfolgt.

Arbeitsgemeinschaft Künstliche Intelligenz

Eine Arbeitsgruppe, die die Interessen und Kompetenzen von Marketing-Schaffenden, Künstlern, Journalisten und Juristen bündelt, soll Informationen bereitstellen, angebliche Fakten analysieren und Vorschläge unterbreiten.

Sie haben Interesse an einer Zusammenarbeit – bitte Mail an info@verbraucherschutz.tv

Nachfolgend wollen wir auf ein paar Themenverknüpfungen eingehen, die unserer Arbeitsgemeinschaft wichtig sind:

Recht der Künstliche Intelligenz im Arbeitsrecht

Not und Elend der in Kenia oder Kolumbien im Namen von Technik und Fortschritt ausgenutzten Klickarbeiter sollte verdeutlichen, wie spektakulär KI den Arbeitsmarkt verändern, wenn nicht revolutionieren wird.

Recht der Künstliche Intelligenz im Zahlungsdiensterecht

Paypal, Klarna und alle weiteren Zahlungsdienstleister wickeln einen großen Teil der Kommunikation mit Kunden schon heute mehr oder weniger ausschließlich über KI und entsprechende Chat-Bots ab. Bei Paypal zeugen Erfahrungen des Hamburger Rechtsanwalts Fabian Fritsch sogar davon, dass selbst über Kontosperrungen und das Einfrieren von Millionenbeträgen durch KI entschieden wird. Im Beschwerde- oder Aufhebungsverfahren bekommen es Betroffene meist erst mit „echten Menschen“ zu tun, wenn die Anbieter durch Einstweilige Verfügungen zur Kommunikation gezwungen werden.

Recht der Künstlichen Intelligenz im Bankrecht

Die EU hat Banken untersagt, Kreditentscheidungen von datenbankgestützen Programmen entscheiden zu lassen.  Banken tun das in aller regel auch nicht, allerdings ziehen sie gern den Schufa-Score eines möglichen Kreditnehmers zu Rate. Ist dieser negativ, wird das Darlehen verweigert. Die EU hat festgestellt, dass Kreditentscheidungen nicht aufgrund automatisierter Vorgänge entschieden werden dürfen und als solchen wertet man den voll automatisch generierten Schufa-Score. Banken dürfen eine Entscheidung also nicht allein mit dem Schufa-Score begründen, sondern müssen in der Begründung einer Ablehnung eigene Entscheidungsparamater anführen.

2 comments
  1. Danke für die lesenswerte Übersicht über das Thema. Dem libertären Sam Altman kaufe ich seine Sorge um den Missbrauch von AI aber auch nicht ganz ab. Diese Leute leben schon lange in ganz anderen Welten als wir Normalsterblichen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.