Navigation und Service

Texte mit KI verfassen - Große KI-Sprachmodelle und ihre Risiken

Künstlicher Intelligenz (KI), kurz KI, wird von großem öffentlichen Interesse begleitet. Denn diese Programme – sogenannte KI-Sprachmodelle - können menschliche Sprache verarbeiten und teils überzeugende Antworten erzeugen

Der Vortrag in allerletzter Sekunde

Was ist dran an KI-Sprachmodellen? Mit Sicherheit haben davon viele geträumt: Diese KI kann beispielsweise binnen kürzester Zeit Vorträge verfassen, Matheaufgaben lösen oder für die Liebste/den Liebsten ein romantisches Gedicht verfassen. Im Gegensatz zu einer Suchmaschine, die Fragen nach dem Wetter beantworten kann, können dieser KI Aufgaben zur Lösung gestellt werden. Wie zum Beispiel: Schreibe im Stil von Shakespeare "Romeo und Julia" so um, so dass das Stück nicht in einer Tragödie endet. Die Ergebnisse sind erstaunlich und laden zum Ausprobieren ein. Zählen nun die berühmten Nachtschichten vor der Abgabe einer Hausarbeit in der Schule oder der Fertigstellung eines Referates der Vergangenheit an? Ja und nein: Neben dem eigenen Anspruch gibt es wichtige Punkte – der berühmte "Haken" also – zu wissen, bevor Sie sich die KI zu Nutze machen.

Nicht alles glauben, was die KI ausgibt

Die KI liefert auf jede Aufgabe auch eine Lösung. Was zunächst toll klingt, ist mit Vorsicht zu genießen. Eine Antwort gibt es auch dann, wenn die Antwortgrundlagen fehlen und die KI nach menschlichem Ermessen eigentlich ausgeben müsste: Keine Antwort verfügbar. Dadurch kann es zu falschen Antworten kommen. Die KI "halluziniert" dann. Besonders, wenn es auf den Wahrheitsgehalt ankommt, sollte die Antwort möglichst über zuverlässige, unabhängige Quellen gegengeprüft werden.

Nicht alles sollte die KI gefragt werden

Wenn Aufgaben an die KI formuliert werden, besteht die Möglichkeit, dass der Betreiber der KI auf diese Information zugreift. Das betrifft auch die empfangenen Antworten. Ob und wie diese verwendet werden, z. B. eine Weitergabe an Dritte erfolgt, ist unterschiedlich geregelt. Besonders vor der Eingabe sensibler oder gar vertraulicher Informationen sollte darüber nachgedacht werden, was man mit der KI teilt.

KI in Chatbots – Vorsicht ist geboten!

KI-Sprachmodelle kommen zum Beispiel in sogenannten Chatbots zum Einsatz. Das sind Programme, denen man Fragen stellen kann, die dann wie in einer Unterhaltung beantwortet werden. Aufgrund der hohen Qualität der Texte entsteht dabei schnell der Eindruck, mit einem Menschen zu schreiben. Damit wird allzu schnell ein zu großes Vertrauen in die getroffenen Aussagen der KI aufgebaut. Bitte bleiben Sie wachsam und skeptisch, vor allem, wenn Sie dazu aufgefordert werden Zugangsdaten, wie Passwörter oder andere sensible Daten, herauszugeben.

Darüber hinaus ist es mit verschiedenen Assistenzsystemen, wie einigen Chatbots, mittlerweile möglich, Internetseiten, Dokumente oder E-Mail-Postfächer automatisiert auszuwerten. Bei vielen dieser Fälle kann es sein, dass die KI ungeprüfte Daten aus unklaren Quellen verarbeitet. Dabei sind KI-Sprachmodelle (wie zum Beispiel Chatbots oder Übersetzer-KI) anfällig für sogenannte ‚Indirect Prompt Injections‘: Das bedeutet, dass die Verfasser einer Webseite, eines Dokuments oder einer E-Mail, die ausgewertet werden, die Eingabe manipulieren! Angreifende können die von der KI zu verarbeitenden Daten so verfälschen und dort unerwünschte Anweisungen für die Künstliche Intelligenz platzieren. Greift die KI dann auf die veränderten Daten zu, werden die unerwünschten Befehle unter Umständen ausgeführt. Dies kann zum Beispiel zur Folge haben, dass die Täter private Daten abgreifen, oder in einem fremden Namen Spam-Mails weiterleiten. Der Chatbot könnte sogar die Nutzerin oder den Nutzer beeinflussen und ihn dazu bringen, auf Phishing-Links zu klicken oder Schadsoftware zu installieren. Solche Manipulationen können versteckt sein und sind unter Umständen nicht erkennbar.

Angreifende nutzen aus, dass auch die beste KI immer nur so gut sein kann, wie die Daten, mit denen sie arbeitet. Hat jemand diese Daten zu seinen Zwecken verändert, beeinflusst das auch die Ergebnisse der Künstlichen Intelligenz.

  • Dagegen kann helfen,
    dass Sie Informationen einem Faktencheck unterziehen und mehrere Informationsquellen nutzen.
  • dass Sie nicht auf Links klicken, die ein Chatbot Ihnen schickt.
  • dass Sie, kritisch hinterfragen, welche Zugriffsrechte Sie einem PlugIn einräumen
    Weitere Informationen:

Das BSI hat am 18.07.2023 eine Sicherheitswarnung zum Thema ‚Indirect Prompt Injections‘ veröffentlicht.

Gefahren durch Kriminelle

Gefälschte E-Mails, die dazu verleiten sollen, persönliche Informationen, z. B. Passwörter, preiszugeben sind eine immerwährende Gefahr. Diese KI kann helfen sogenannten Spam oder Phishing-E-Mails zu enttarnen. Leider wird dieselbe KI auch von Kriminellen verwendet, um Phishing-E-Mails noch glaubwürdiger darzustellen. Das Erkennen durch falsche Rechtschreibung wird dadurch praktisch unmöglich. Wissenswertes zum Thema Phishing und wie Sie diese gefährlichen Mails dennoch erkennen können, können Sie hier nachlesen.

Was heißt das für meinen Vortrag?

Für den eingangs erwähnten Vortrag in allerletzter Sekunde bedeutet das beim Einsatz von KI, Sie können nicht davon ausgehen, dass alles korrekt ist. Achten Sie insbesondere darauf welche Informationen Sie preisgeben und wem Sie was anvertrauen. Prüfen Sie grundsätzlich alle Texte aus unklaren Quellen auf ihre Echtheit und den Gefahrenwert.