Startseite » KI-Chatbots: Funktionen, Grenzen, Regeln

KI-Chatbots: Funktionen, Grenzen, Regeln

KI-Chatbots wie ChatGPT, Gemini oder Copilot werden für die Erstellung von Texten, die Beantwortung von Fragen und die Bearbeitung unterschiedlicher Aufgaben eingesetzt. Sie basieren auf großen Sprachmodellen, die darauf trainiert wurden, menschliche Sprache zu verarbeiten und eigenständig Antworten zu formulieren. Neben Informationsanfragen unterstützen sie auch bei kreativen Tätigkeiten oder im Kundenservice.

Nach Angaben der Verbraucherzentrale nutzen diese Systeme umfangreiche Textdaten für ihr Training. Die Antworten der Chatbots sind jedoch nicht zwingend aktuell oder fehlerfrei. Nutzerinnen und Nutzer werden darauf hingewiesen, Informationen kritisch zu prüfen und sensible Daten nicht einzugeben.

Anbieter und Abgrenzung zur Suchmaschine

Zu den bekannten Anbietern von KI-Chatbots zählen:

  • OpenAI (ChatGPT)
  • Google (Bard / Gemini)
  • Microsoft (Copilot)
  • Anthropic (Claude)
  • Meta (LLaMA)
  • Aleph Alpha

Suchmaschinen wie Google, Bing oder DuckDuckGo zeigen auf Basis von Schlagwörtern Links zu Internetseiten an, auf denen sich gesuchte Informationen befinden können. KI-Chatbots hingegen formulieren direkte Antworten in Textform. Darüber hinaus können sie Aufgaben übernehmen, die über die klassische Suche hinausgehen, etwa das Verfassen von Texten oder die Erstellung von Grafiken.

Ein Beispiel für die Verknüpfung beider Systeme ist Google mit seinem Chatbot Gemini, der bereits ausformulierte Zusammenfassungen in der Suchoberfläche anzeigt.

Aktualität und Herkunft der Daten

Chatbots wie ChatGPT oder Microsoft Copilot werden fortlaufend aktualisiert. Sie greifen sowohl auf vorab trainiertes Wissen als auch – je nach Modell – auf aktuelle Informationen über Websuche zurück. Der Wissensstand hängt von den jeweiligen Trainingsdaten ab und unterscheidet sich zwischen den Modellen.

Die Trainingsdaten bestehen aus großen Mengen digitaler Texte, darunter Bücher, Artikel und frei zugängliche Webseiten. Für das maschinelle Lernen gilt eine gesetzliche Ausnahme: Eine KI darf mit frei zugänglichen, auch urheberrechtlich geschützten Inhalten trainiert werden. Rechteinhaber können der Nutzung ihrer Werke zu Trainingszwecken widersprechen.

Nutzung von Nutzerdaten und Urheberrecht

Plattformen wie Meta, TikTok, X oder LinkedIn planen laut Verbraucherzentrale, auch Nutzerdaten für das Training KI-basierter Dienste einzusetzen. Dazu zählen Profildaten sowie veröffentlichte Inhalte wie Beiträge, Fotos oder Kommentare. Wer nicht möchte, dass eigene personenbezogene Daten für Trainingszwecke verwendet werden, muss aktiv beim jeweiligen Anbieter widersprechen.

Das Urheberrecht schützt grundsätzlich jede Form der Vervielfältigung eines geschützten Werkes. Das vollständige Kopieren und Einfügen urheberrechtlich geschützter Inhalte in einen Chatbot kann eine Urheberrechtsverletzung darstellen. Vorübergehende Vervielfältigungen, etwa bei Suchmaschinenanfragen, sind davon ausgenommen. Da eingegebene Inhalte bei KI-Chatbots in der Regel nicht nur temporär verarbeitet werden, wird davon abgeraten, vollständige geschützte Werke einzugeben.

Auch die Weiterverbreitung KI-generierter Inhalte kann urheberrechtliche Fragen aufwerfen, etwa wenn erkennbare Teile geschützter Werke wiedergegeben werden.

Richtigkeit der Inhalte und Plagiaterkennung

Nach Angaben der Verbraucherzentrale werden die von Chatbots generierten Inhalte nicht automatisch auf Richtigkeit geprüft. Antworten können ungenau, unvollständig oder unangemessen sein und stellen keine professionelle Beratung dar. Anbieter wie ChatGPT und Microsoft Copilot geben an, ihre Modelle unter anderem mit seriöser Berichterstattung trainiert zu haben. Dennoch können KI-Systeme nicht in jedem Fall zuverlässig zwischen verlässlichen Informationen und Falschmeldungen unterscheiden.

Sowohl Anbieter als auch die Verbraucherzentrale empfehlen, ausgegebene Informationen vor einer Weiterverwendung zu prüfen. Für die Überprüfung können spezialisierte Faktencheck-Portale genutzt werden.

KI-Chatbots sind in der Regel nicht speziell auf die Erkennung von Plagiaten ausgelegt. Zwar können sie ähnliche Formulierungen erkennen, spezialisierte Tools mit Anbindung an externe Datenbanken gelten jedoch als zuverlässiger bei der Plagiatsprüfung.

Kosten, Datenspeicherung und Datenschutz

Viele Chatbots bieten sowohl kostenfreie als auch kostenpflichtige Versionen an. Die kostenpflichtigen Varianten enthalten zusätzliche Funktionen, etwa für Codierung oder Datenanalyse.

Für die Nutzung von ChatGPT ist eine Registrierung erforderlich. Dabei werden Kontodaten wie Name und Kontaktdaten gespeichert. Zudem werden Nutzereingaben, Formulierungen, Anfragen sowie Nutzungsgewohnheiten erfasst und nach Angaben der Verbraucherzentrale zu Trainings- und Verbesserungszwecken verwendet. Es wird empfohlen, keine persönlichen Daten in KI-Tools einzugeben.

Seit Mai 2018 gelten in der Europäischen Union einheitliche Datenschutzregeln auf Grundlage der DSGVO. Diese Vorschriften gelten für Unternehmen mit Sitz in der EU sowie für Anbieter, die ihre Dienste in der EU bereitstellen. Nutzerinnen und Nutzer haben unter anderem ein Recht auf Auskunft über gespeicherte personenbezogene Daten sowie auf Löschung, Berichtigung oder Einschränkung der Verarbeitung.

Altersvorgaben und Kennzeichnungspflichten

KI-Chatbots können grundsätzlich von Personen ab 18 Jahren genutzt werden. Einige Anbieter, darunter ChatGPT und Meta, erlauben die Nutzung ab 13 Jahren, sofern eine Zustimmung der Erziehungsberechtigten vorliegt. Eine Altersverifikation findet in der Regel aber nicht statt.

Derzeit besteht keine allgemeine Pflicht zur Kennzeichnung KI-generierter Inhalte. Für Werbung gelten besondere Kennzeichnungspflichten, sofern eine Täuschung möglich ist. Ab August 2026 treten zusätzliche Vorgaben des europäischen AI-Acts in Kraft. Danach müssen KI-generierte Inhalte, insbesondere sogenannte Deepfakes oder KI-erstellte Audio-, Video- und Textinhalte in bestimmten Kontexten, klar erkennbar gemacht werden. Anbieter müssen zudem darüber informieren, wenn KI-Systeme eingesetzt werden, die mit Personen interagieren und mit realen Menschen verwechselt werden können (zum Beispiel bei Chatbots oder Telefon-Hotlines).