THRIVETECH

Einkaufswagen

Zwischensumme $0.00

Warenkorb ansehenKasse

Wie kann künstliche Intelligenz daran gehindert werden, irgendetwas zu tun?

Künstliche Intelligenz kann alle Arten von Bildern produzieren, darunter auch Texte und Videos. Wie lässt sich feststellen, ob der Schöpfer einer Kreation ein Mensch ist? Die Frage ist nicht, wer das Video oder Bild erstellt hat, sondern ob es reale Lebenssituationen darstellt oder ob ein Algorithmus am Werk ist.

Es ist beispielsweise von entscheidender Bedeutung, die Echtheit eines Bildes festzustellen, das, wenn es künstlich gefälscht wird, als Desinformationsinstrument verwendet werden könnte. Die Rückverfolgbarkeit eines Bildes oder Films ist wichtig. Um zu erkennen Deepfakes - Übersetzung und Hypertrucage.

Ein Wasserzeichen zur Kennzeichnung von durch eine KI generierten Kreationen?

Die „jungen Fehler“ in der Technologie gibt es nicht mehr. Wir können uns nicht auf Charaktere mit sechs Fingern oder digitale Humanoide verlassen, die keine realistischen Beine haben konnten.

Die heutigen Produktionen sind glaubwürdiger. Im Oktober 2024 veröffentlichten Teams von Google DeepMind einen Artikel im Scientific Journal Natur , schlägt die SynthID-Lösung vor , (Neues Fenster).

Es wäre dann möglich, in alle Produktionen, die auf einem Modell künstlicher Intelligenz basieren, ein für das menschliche Auge unsichtbares Zeichen einzubauen. Text, Animationen oder Bilder. Es ist möglich, dieses Tattoo digital zu finden, falls Fragen zu seiner Herkunft bestehen.

Ein Marker, der umgangen werden kann

Es wird immer Techniken geben, um Diebstahlsicherungen, die in Geschäften an der Kleidung angebracht sind, zu entfernen oder zu neutralisieren. Zum Beispiel bei der Analyse von Texten. Sie müssen absichtlichen Änderungen wie dem Ersetzen von Wörtern, Paraphrasen oder Übersetzungen standhalten. Die Tests zeigen, dass längere und kreativere Texte besser abschneiden. Sie wären nicht so effektiv, wenn der Inhalt extrem sachlich oder synthetisch präsentiert würde.

Es ist klar, dass wir uns nicht allein auf die Technologie verlassen sollten, um problematische Inhalte zu identifizieren. Es liegt in unserer Verantwortung, die Videos, Bilder oder Texte, die wir sehen, kritisch zu betrachten. Insbesondere, wenn die Produktionen emotional oder politisch aufgeladen sind. Um die Realität und Relevanz dieser Produktionen zu würdigen, dürfen wir unsere menschliche Intelligenz nicht aufgeben.

Schutzmaßnahmen bereits bei der Konzeption von KI-Modellen berücksichtigen

Die ursprüngliche Sicherheitsüberlegung gilt für alle Verstöße, die auf große Sprachmodelle abzielen. Dabei handelt es sich um Mechanismen des maschinellen Lernens, die Abfragen verstehen und Inhalte generieren können. Im Oktober 2024 wurden vom Laboratoire d'Innovation Numérique (LINC) und der Commission Nationales Informatique et Libertés (CNIL) zwei Berichte veröffentlicht, in denen einige der größten Risiken in diesem Bereich beschrieben wurden.

Es besteht auch die Möglichkeit der Wiederkäuung. Wenn eine KI befragt wird, gibt sie persönliche Informationen aus früheren Trainingssitzungen preis. Die KI könnte auch angewiesen worden sein, eine Nachricht zu erstellen, in der Benutzer aufgefordert werden, vertrauliche Informationen weiterzugeben. Es ist wichtig sicherzustellen, dass Datensätze anonymisiert werden, bevor sie für das KI-Training verwendet werden können.

Es ist auch wichtig, toxische Reaktionen vorhersagen zu können. KI kann verwendet werden, um gewalttätige oder hasserfüllte Inhalte zu erstellen. Oder um bösartige Computerprogramme zu entwickeln.

Eine Kultur der Sicherheit etablieren

Die wichtigsten Sicherheitsempfehlungen werden in einem Dokument zusammengefasst (Neues Fenster),eingerichtet von der Agence nationale de securite des systèmes d'information , (Neues Fenster), vor Sommer 2024.

Dies erinnert uns daran, dass es wichtig ist, alle Prozesse bei der Entwicklung von Modellen künstlicher Intelligenz zu dokumentieren, von der Qualität der Informationen im Vorfeld bis hin zur Identifizierung der Personen, die berechtigt sind, Änderungen an Datenbibliotheken, algorithmischen Regeln und der Speicherung digitaler Maschinen, insbesondere in der Cloud, vorzunehmen.

Es ist wichtig, dass sich nicht nur Techniker, sondern auch die Öffentlichkeit, die zunehmend mit diesen KI-Tools zu tun haben wird, dieser Prinzipien bewusst wird. KI wird sowohl in unserem Berufs- als auch in unserem Privatleben eine immer wichtigere Rolle spielen.

ChatGPT-Integration für automatisierte Prozesse

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

de_DE_formalGerman