Arbeiter verwenden heimlich ChatGPT, AI, mit großen Risiken für Unternehmen

Lionel Bonaventura | AFP | Getty Images

Steigende Investitionen großer Technologieunternehmen in künstliche Intelligenz und Chatbots – inmitten massiver Entlassungen und eines Wachstumsrückgangs – haben viele Chief Information Security Officers in einen Wirbelsturm versetzt.

Mit ChatGPT von OpenAI, Bing AI von Microsoft, Bard von Google und dem Plan von Elon Musk für seinen eigenen Chatbot, der Schlagzeilen macht, dringt die generative KI in den Arbeitsplatz ein, und Chief Information Security Officers müssen diese Technologie mit Vorsicht angehen und sich mit den erforderlichen Sicherheitsmaßnahmen vorbereiten.

Die Technologie hinter GPT oder generativen vortrainierten Transformatoren wird von großen Sprachmodellen (LLMs) oder Algorithmen angetrieben, die die menschenähnlichen Gespräche eines Chatbots erzeugen. Aber nicht jedes Unternehmen hat sein eigenes GPT, daher müssen Unternehmen überwachen, wie Mitarbeiter diese Technologie nutzen.

Menschen werden generative KI verwenden, wenn sie es für nützlich halten, ihre Arbeit zu erledigen, sagt Michael Chui, ein Partner am McKinsey Global Institute, und vergleicht es mit der Art und Weise, wie Arbeiter PCs oder Telefone verwenden.

„Auch wenn es nicht von der IT sanktioniert oder gesegnet ist, finden die Leute [chatbots] nützlich“, sagte Chui.

„Im Laufe der Geschichte haben wir Technologien gefunden, die so überzeugend sind, dass Einzelpersonen bereit sind, dafür zu bezahlen“, sagte er. „Die Leute haben Mobiltelefone gekauft, lange bevor die Unternehmen sagten: ‚Ich werde Ihnen das liefern.‘ PCs waren ähnlich, also sehen wir jetzt das Äquivalent mit generativer KI.“

Infolgedessen gibt es für Unternehmen einen „Nachholbedarf“ in Bezug darauf, wie sie Sicherheitsmaßnahmen angehen werden, fügte Chui hinzu.

Unabhängig davon, ob es sich um gängige Geschäftspraktiken handelt, wie die Überwachung, welche Informationen auf einer KI-Plattform geteilt werden, oder die Integration eines vom Unternehmen genehmigten GPT am Arbeitsplatz, Experten sind der Meinung, dass es bestimmte Bereiche gibt, in denen CISOs und Unternehmen beginnen sollten.

Beginnen Sie mit den Grundlagen der Informationssicherheit

CISOs – die bereits Burnout und Stress bekämpfen – haben mit genug Problemen zu kämpfen, wie potenziellen Cybersicherheitsangriffen und steigenden Automatisierungsanforderungen. Da KI und GPT Einzug in den Arbeitsplatz halten, können CISOs mit den Sicherheitsgrundlagen beginnen.

Chui sagte, dass Unternehmen die Nutzung einer bestehenden KI-Plattform lizenzieren können, damit sie überwachen können, was Mitarbeiter zu einem Chatbot sagen, und sicherstellen können, dass die geteilten Informationen geschützt sind.

„Wenn Sie ein Unternehmen sind, möchten Sie nicht, dass Ihre Mitarbeiter einen öffentlich zugänglichen Chatbot mit vertraulichen Informationen auffordern“, sagte Chui. „Sie könnten also technische Mittel einsetzen, um die Software zu lizenzieren und eine durchsetzbare rechtliche Vereinbarung darüber zu treffen, wohin Ihre Daten gehen oder nicht.“

Die Lizenzierung der Nutzung von Software ist mit zusätzlichen Kontrollen und Abwägungen verbunden, sagte Chui. Der Schutz vertraulicher Informationen, Vorschriften darüber, wo die Informationen gespeichert werden, und Richtlinien, wie Mitarbeiter die Software verwenden können – all dies ist ein Standardverfahren, wenn Unternehmen Software lizenzieren, KI oder nicht.

„Wenn Sie eine Vereinbarung haben, können Sie die Software prüfen, damit Sie sehen können, ob sie die Daten so schützen, wie Sie es möchten“, sagte Chui.

Die meisten Unternehmen, die Informationen mit Cloud-basierter Software speichern, tun dies bereits, sagte Chui. Wenn Sie also vorankommen und Mitarbeitern eine vom Unternehmen genehmigte KI-Plattform anbieten, bedeutet dies, dass ein Unternehmen bereits mit bestehenden Branchenpraktiken übereinstimmt.

So erstellen oder integrieren Sie ein benutzerdefiniertes GPT

Eine Sicherheitsoption für Unternehmen besteht darin, ihr eigenes GPT zu entwickeln oder Unternehmen zu beauftragen, die diese Technologie entwickeln, um eine benutzerdefinierte Version zu erstellen, sagt Sameer Penakalapati, Chief Executive Officer bei Ceipal, einer KI-gesteuerten Talentakquisitionsplattform.

In bestimmten Funktionen wie HR gibt es mehrere Plattformen von Ceipal bis zu TalentGPT von Beamery, und Unternehmen könnten den Plan von Microsoft in Betracht ziehen, anpassbare GPT anzubieten. Aber trotz immer höherer Kosten möchten Unternehmen möglicherweise auch ihre eigene Technologie entwickeln.

Wenn ein Unternehmen sein eigenes GPT erstellt, verfügt die Software genau über die Informationen, auf die die Mitarbeiter Zugriff haben sollen. Ein Unternehmen kann auch die Informationen schützen, die Mitarbeiter darin eingeben, sagte Penakalapati, aber selbst die Beauftragung eines KI-Unternehmens mit der Erstellung dieser Plattform wird es Unternehmen ermöglichen, Informationen sicher einzugeben und zu speichern, fügte er hinzu.

Welchen Weg auch immer ein Unternehmen wählt, Penakalapati sagte, dass CISOs daran denken sollten, dass diese Maschinen auf der Grundlage dessen funktionieren, was ihnen beigebracht wurde. Es ist wichtig, bewusst mit den Daten umzugehen, die Sie der Technologie geben.

„Ich sage den Leuten immer, dass sie sicherstellen sollen, dass sie über eine Technologie verfügen, die Informationen basierend auf unvoreingenommenen und genauen Daten liefert“, sagte Penakalapati. „Denn diese Technologie entsteht nicht zufällig.“

Ersten Kommentar schreiben

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*