Alphabet hat seine Mitarbeiter angewiesen, keine vertraulichen Informationen in Bard einzugeben, den generativen KI-Chatbot, der von Google entwickelt und betrieben wird, das wiederum Alphabet gehört.
Die Warnung des Unternehmens gilt auch für andere Chatbots, wie etwa das von Microsoft unterstützte ChatGPT von OpenAI, Reuters berichtete am Donnerstag.
Die KI-gesteuerten Chatbots haben in den letzten Monaten aufgrund ihrer beeindruckenden Fähigkeit, auf menschenähnliche Weise zu kommunizieren, Aufsätze und Berichte zu schreiben und sogar akademische Tests zu bestehen, großes Interesse geweckt.
Alphabet befürchtet jedoch, dass seine Mitarbeiter über diese Tools versehentlich interne Daten preisgeben könnten.
Im Zuge der laufenden Arbeiten zur Verfeinerung und Verbesserung der fortschrittlichen KI-Technologie können menschliche Prüfer die Gespräche der Benutzer mit den Chatbots lesen. Dies stellt ein Risiko für die Privatsphäre und möglicherweise auch die Offenlegung von Geschäftsgeheimnissen dar. Letzteres scheint Alphabet besonders beunruhigend zu sein.
Darüber hinaus werden die Chatbots teilweise durch den Textaustausch der Benutzer trainiert, so dass das Tool bei bestimmten Eingabeaufforderungen möglicherweise vertrauliche Informationen, die es in diesen Gesprächen erhält, an die Öffentlichkeit weitergeben könnte.
Wie ChatGPT ist Bard jetzt kostenlos verfügbar und kann von jedem ausprobiert werden. Auf der Webseite werden die Benutzer gewarnt: „Bitte geben Sie in Ihren Bard-Gesprächen keine Informationen an, die zur Identifizierung Ihrer oder anderer verwendet werden können.“
Darin heißt es weiter, dass Google „Bard-Konversationen, Informationen zur Verwendung verwandter Produkte, Informationen zu Ihrem Standort und Ihr Feedback“ sammelt und die Daten verwendet, um Google-Produkte und -Dienste, die Bard enthalten, zu verbessern.
Google gibt an, dass Bard-Aktivitäten bis zu 18 Monate lang gespeichert werden. Ein Benutzer kann dies jedoch in seinem Google-Konto auf drei oder 36 Monate ändern.
Außerdem wird hinzugefügt, dass Bard-Gespräche aus Datenschutzgründen von einem Google-Konto getrennt werden, bevor ein menschlicher Prüfer sie sieht.
Reuters zufolge besteht die Warnung von Alphabet zwar schon seit einiger Zeit, wurde aber kürzlich erweitert. Die Mitarbeiter wurden aufgefordert, die Verwendung von präzisem Computercode zu vermeiden, der von Chatbots generiert wird. Das Unternehmen teilte der Nachrichtenagentur mit, dass Bard manchmal „unerwünschte Codevorschläge“ machen könne, obwohl die aktuelle Version des Tools immer noch als brauchbare Programmierhilfe angesehen wird.
Alphabet ist nicht das einzige Unternehmen, das seine Mitarbeiter vor den Datenschutz- und Sicherheitsrisiken warnt, die mit der Nutzung der Chatbots verbunden sind. Samsung hat seinen Mitarbeitern kürzlich eine ähnliche Anweisung erteilt, nachdem einige von ihnen sensible Halbleiterdaten in ChatGPT eingespeist hatten. Auch Apple und Amazon haben Berichten zufolge ähnliche interne Richtlinien erlassen.