Setze dich mit uns in Verbindung

GEWINNERmagazin.de

© Pexels

News

Künstliche Intelligenz: Vertrauliche Daten nicht an ChatGPT verraten

Generative KI-Systeme wie ChatGPT und Co. erhalten viel Aufmerksamkeit und werden täglich von Tausenden Nutzern mit Daten gefüttert. Immer mehr Unternehmen nutzen die Technologien und setzen sie für die unterschiedlichsten Projekte und Prozesse ein. Vor allem für die Informationsbeschaffung, dem Verfassen von Texten und der Übersetzung werden die Tools genutzt. Leider gehen viele Nutzer wenig rücksichtsvoll mit sensiblen Unternehmensdaten um und lassen die KI für sich arbeiten.

Mitarbeiter müssen, sofern sie die KI-Tools nutzen dürfen, darauf achten, dass sie keine personenbezogenen Daten und keine Firmeninterna eingeben oder in ihre Abfragen einbauen. Sie müssen darüber hinaus darauf achten, dass die Informationen, die ihnen in den Antworten gegeben werden, ebenfalls frei von personenbezogenen Daten und Firmeninterna sind. Alle Informationen sollten noch einmal unabhängig überprüft werden, um sich gegen Rechtsansprüche abzusichern und um Missbrauch zu vermeiden.

Mithilfe von Security Awareness-Schulungen können Mitarbeiter lernen, wie man verantwortungsvoll mit ChatGPT und anderen Tools für generative KI umgeht und diese sicher für die Arbeit nutzen kann. Sie lernen, welche Informationen sie preisgeben dürfen und welche nicht, damit sie und ihre Unternehmen nicht Gefahr laufen, dass sensible Daten von unerwünschten Dritten missbraucht werden.

Dieses Vorgehen kann schwere Folgeschäden auslösen, da diese Daten ohne Kontrolle von jedem anderen Nutzer, der nur die richtigen Fragen stellt, abgerufen und extrahiert werden können. Diese können nun an andere Firmen oder an Cyber-Verbrecher verkauft und für etliche schändliche Zwecke missbraucht werden.

Weiterlesen

Samuel Altersberger ist Redakteur beim GewinnerMagazin. Vor seiner Arbeit beim DCF Verlag war er bereits sechs Jahre als freier Autor tätig und hat während dieser Zeit auch in der Marketing Branche gearbeitet.

Klicke, um zu kommentieren

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Mehr in News

Nach oben