Künstliche Intelligenz (KI) ist eine Technologie, mit der Computer und Maschinen menschliche F?higkeiten nachahmen k?nnen. Dazu geh?ren Lernen, Verstehen, Probleml?sung, Entscheidungsfindung, Kreativit?t und unabh?ngiges Handeln.
Unternehmen nutzen KI, um Innovationen voranzutreiben, ihren Teams mehr M?glichkeiten an die Hand zu geben und Betriebsabl?ufe auf vielf?ltige Weise zu optimieren. Je nach Implementierung werden KI-Funktionen h?ufig durch pr?diktive Analysen, Machine Learning (ML) und weitere Funktionen verst?rkt. Zu den Anwendungsf?llen von KI geh?ren unter anderem:
Die Hardware, die wir nutzen, um Innovationen voranzutreiben, Prozesse zu optimieren und t?gliche Abl?ufe zu verwalten, ver?ndert sich. Fortschrittliche Architekturen wie RISC-Maschinen (Reduced Instruction Set Computing) – meist als ARM-Entwicklung bezeichnet – und CISC-Architekturen (Complex Instruction Set Computing) wie x86 spielen in der Computerbranche eine entscheidende Rolle. Apple, Microsoft, Broadcom, Intel und andere Unternehmen investieren massiv in KI-Technologien und haben damit das Zeitalter der KI-PCs eingel?utet. Diese Systeme sind dafür optimiert, ein breites Spektrum KI-gestützter Aufgaben zu bew?ltigen. Dazu geh?ren die Spracherkennung, die Verarbeitung natürlicher Sprache und Machine Learning. KI-spezifische Hardware beschleunigt viele dieser Aufgaben auf den Ger?ten. Sie erm?glicht eine leistungsstarke KI-Inferenz und sogar das KI-Training auf Alltagsger?ten.
Um Deep Learning zu erm?glichen und KI-Modelle zu trainieren, nutzen Unternehmen die Leistung und den gro?en Durchsatz von KI-Rechenzentren. Diese Einrichtungen beherbergen gro?e Mengen an Hardware, darunter Grafikprozessoren (GPUs) und KI-Beschleunigungssysteme. In einem kürzlich erschienenen Forbes-Artikel zur Leistungsf?higkeit von KI-Rechenzentren hei?t es, dass diese ? liefern," insgesamt jedoch enorme Mengen an Strom verbrauchen und hochmoderne Kühlungsl?sungen erfordern“.
SOCs (Security Operations Centers) k?nnen KI nutzen, um Ressourcen effizienter zuzuweisen und Risiken zu mindern. Durch Deep Learning, Automatisierung und weitere Funktionen k?nnen diese die Risikoerkennung und Reaktionsma?nahmen beschleunigen. Dies gilt insbesondere, wenn sie eine Cybersicherheitsplattform nutzen, die L?sungen konsolidiert und KI integriert, um die Abl?ufe weiter zu optimieren.
Da Tools wie ChatGPT, OpenAI und Microsoft Copilot leicht zug?nglich sind, versuchen b?swillige Akteure fortlaufend, auf vertrauliche Daten zuzugreifen. In einigen F?llen besteht ihr Ziel darin, KI-Tools so zu manipulieren, dass ihr Verhalten dem beabsichtigten Zweck zuwiderl?uft. Zu den wichtigsten KI-Sicherheitsrisiken z?hlen Rogue AI, Betrugsautomatisierung und eine unzureichende Datenverwaltung.
Unternehmen müssen mit Cyberkriminellen nicht nur Schritt halten, sondern ihnen einen Schritt voraus sein. Dazu müssen sie die risikobewusste und gesetzeskonforme Einführung von KI-Technologie sicherstellen. Ein wesentlicher Teil dieser Strategie besteht darin, ein besseres Gespür für die Sicherheitsrisiken von KI zu entwickeln.
Eine risikoorientierte Richtlinie, die Hinweise zur korrekten Nutzung von KI liefert, bildet einen wichtigen Orientierungspunkt für Mitarbeiter. Indem diese Vorschriften eingehalten und stets auf dem neuesten Stand gehalten werden, k?nnen Sie das Risiko für Ihr Unternehmen minimieren. Für die Compliance und effektive Datensicherheit ist es wichtig, über die richtigen Richtlinien und Verfahren zu verfügen. Beispiele staatlicher und branchenbezogener Regulierungsbeh?rden und die Zusammenarbeit mit Kollegen k?nnen Sie bei der Ausarbeitung Ihrer eigenen KI-Richtlinie unterstützen.
Deepfakes werden mit der Weiterentwicklung generativer KI-Technologie (GenAI) immer überzeugender. Bedrohungsakteure nutzen sie, um Einzelpersonen oder Gruppen zu manipulieren und glauben zu lassen, die generierten Bilder, Videos oder Texte seien authentisch und vertrauenswürdig. Dadurch stellen Deepfakes ein erhebliches Risiko für die Datensicherheit dar. Unabh?ngig davon, ob KI eine Rolle spielt oder nicht, bleiben die Absichten der Cyberkriminellen in allen F?llen identisch – Irreführung, Diebstahl und/oder Betrug.
Das Wissen um die Funktionsweise von KI-Implementierungen – auch die Nutzung und potenzielle Aufbewahrung von Daten – tr?gt dazu bei, wirksame Ma?nahmen für die Cybersicherheit festzulegen. W?hrend Unternehmen weiterhin KI nutzen und damit innovativ t?tig sind, passen sich b?swillige Akteure entsprechend an, um Schwachstellen auszunutzen. Da sich die Bedrohungslandschaft parallel zur KI st?ndig weiterentwickelt, müssen Unternehmen ihre KI-Implementierungen proaktiv absichern.
Wenn Sie eigene KI-Systeme entwickeln, empfiehlt OWASP au?erdem Folgendes (unabh?ngig davon, ob Sie Ihre Modelle selbst trainieren):
Weitere Details und technische Einblicke finden Sie in der .
Die Nutzung von GenAI ML-Funktionen für die Datenanalyse und für kreative Ergebnisse bringt neue Risiken mit sich. ?Für die Sicherheit der Daten bei Machine Learning muss auch die Datenintegrit?t bei der ?bertragung und w?hrend der Verarbeitung berücksichtigt werden“, hei?t es in einem Artikel der Global Cybersecurity Alliance (GCA) zur Sicherheit von ML-Daten. ?Eine unzureichende Datenintegrit?t kann Modellergebnisse verf?lschen. Dies kann zu ungenauen oder voreingenommenen Entscheidungen mit potenziell weitreichenden Folgen führen.“
Im folgenden Artikel sind proaktive Schritte :
KI-Modelle sind Strukturen, die aus einer Architektur und Parameterwerten bestehen. Das System bearbeitet damit Aufgaben wie das Erstellen von Prognosen oder des Generieren von Inhalten. Dies wird als Inferenz bezeichnet. Diese Aufgaben reichen vom Beantworten von Abfragen über das Erkennen von Mustern in Daten bis hin zum Erkennen von Verhaltensweisen und mehr. KI-Modelle durchlaufen normalerweise einen Trainingslauf, in dem sie die besten Parameterwerte für eine effektive Inferenz erlernen.
Abh?ngig von den Bedürfnissen, Zielen, Compliance-Anforderungen und auch dem Budget Ihres Unternehmens k?nnen Sie für eine Implementierung eine breite Palette idealer KI-Modelle in Betracht ziehen. Zu beachten ist jedoch, dass jedes KI-Modell ein bestimmtes Risiko birgt und au?erdem unterschiedliche KI-Modelltypen zu berücksichtigen sind.
Ein Gro?teil der am weitesten verbreiteten und etablierten KI-Technologie, die wir heute haben, wird als klassische oder enge KI bezeichnet. Diese kann sich an die Anfragen und/oder Bedürfnisse der Anwender anpassen. Sie kann jedoch nur vorgegebene Aufgaben ausführen, die h?ufig nur ein Fachgebiet betreffen. Beispiele für eine enge KI sind textbasierte Chatbots in Customer Support Portals, virtuelle Assistenten wie Siri oder Google Assistant und Spracherkennungssoftware mit automatischer ?bersetzungsfunktion.
Gem?? dem Daten- und KI-Team von IBM gibt es zwei funktionale Kategorien enger KI:
Wie der Begriff nahelegt, kann eine reaktive Maschine nur die Informationen nutzen, die Sie ihr im jeweiligen Moment zuführen. Sie kann zwar aktiv mit ihrer Umgebung und den Anwendern interagieren, kann sich jedoch nicht eigenst?ndig verbessern, da sie sich die erhaltenen Informationen nicht merken kann. In Streaming- und Social Media-Plattformen integrierte Empfehlungssysteme nutzen reaktive maschinelle KI. Das gleiche gilt für Tools zur Durchführung pr?diktiver Analysen von Echtzeitdaten.
Limited-Memory-KI nutzt frühere und aktuelle Daten, um Sie zu unterstützen. Die Begrenzung bezieht sich darauf, dass die von Ihnen bereitgestellten Daten nicht langfristig gespeichert werden k?nnen und im Wesentlichen im Kurzzeitspeicher verweilen. Die Daten, auf die der Zugriff m?glich ist, werden jedoch genutzt, um die Leistung und F?higkeiten kontinuierlich zu optimieren. Mit anderen Worten: Die Umgebung und Ihr Input tragen dazu bei, die KI im Hinblick auf die besten Antworten zu trainieren. Virtuelle Assistenten fallen beispielsweise in diese Kategorie.
W?hrend die enge KI in zahlreichen Implementierungen zum Einsatz kommt, erhalten auch Frontier-AI-Modelle – generell als GenAI bezeichnet – viel Aufmerksamkeit und Investitionen. Dabei handelt es sich um noch fortschrittlichere, experimentelle und zukunftsorientierte KI-Modelle. GenAI ist darauf ausgelegt, Inhalte entweder aus Prompt-Eingaben oder durch den Zugriff auf vorhandene Daten zu generieren. Herausragende Beispiele sind GPT-4 und Google Gemini Ultra.
Der der Stanford University sch?tzt, dass die Trainingskosten für Frontier AI ?beispiellose Ausma?e“ erreicht haben. Allein für Google Gemini Ultra belaufen sich die . Darüber hinaus hei?t es dort, dass die Industrie ein wichtiger Treiber der Frontier-AI-Forschung sei. Im Jahr 2023 hat sie 51 bemerkenswerte Machine-Learning-Modelle hervorgebracht, w?hrend es im akademischen Bereich nur 15 waren. Im gleichen Zeitraum sind jedoch 21 Modelle aus der Zusammenarbeit zwischen Industrie und Wissenschaft hervorgegangen. Der Bericht führt au?erdem auf, dass trotz rückl?ufiger privater Investitionen im Jahr 2022 die GenAI-Finanzierung auf 25,2 Milliarden US-Dollar angestiegen ist. Alle gro?en Akteure vermelden umfangreiche Finanzierungsrunden.?
?Klassische KI zeichnet sich durch Mustererkennung aus, generative KI besticht durch Mustererstellung. ?Klassische KI kann Daten analysieren und Ihnen mitteilen, was sie sieht. Generative KI kann dieselben Daten nutzen, um etwas v?llig Neues zu erschaffen“, fasst Autor Bernard Marr den Unterschied in (Forbes) zusammen. ?Sowohl generative KI als auch klassische KI spielen bei der Gestaltung unserer Zukunft eine wichtige Rolle, da beide einzigartige M?glichkeiten er?ffnen. Für Unternehmen und Privatpersonen, die in unserer dynamischen digitalen Landschaft ihren Vorsprung halten wollen, ist die Nutzung dieser fortschrittlichen Technologien von entscheidender Bedeutung.“
Ein Algorithmus ist eine Reihe schrittweiser Anweisungen zur L?sung eines Problems oder zur Durchführung einer Aufgabe. Er definiert eine Abfolge von Operationen, die von einem Computer ausgeführt werden.
Deep Learning ist eine ML-Teilmenge. Dabei lernen Algorithmen, die aus der Struktur und Funktion der neuronalen Netzwerke des menschlichen Gehirns abgeleitet sind, anhand gro?er Datenmengen. ?Deep“ bezieht sich auf die Vielzahl der Schichten, in denen diese künstlichen Neuronen organisiert sind. Deep Learning eignet sich hervorragend für Aufgaben wie Bild- und Spracherkennung, die Verarbeitung natürlicher Sprache und die Erkennung komplexerer Muster.
Das System KI-Agent ist darauf ausgelegt, seine Umgebung wahrzunehmen und Ma?nahmen zu ergreifen, um seine Chancen zum Erreichen bestimmter Ziele zu maximieren. Mithilfe von Sensoren sammelt es Informationen und setzt Algorithmen ein, um Entscheidungen zu treffen, Ma?nahmen zu ergreifen und Auswirkungen zu bewerten. Dabei lernt das System und passt sich h?ufig im Laufe der Zeit an.
Dieser Begriff bezeichnet Inhalte, die mithilfe von KI-Techniken wie Deep Learning erstellt oder bearbeitet wurden. Hierzu geh?ren generierte Bilder, Video- und Audiodateien, die überzeugend Elemente der realen Welt simulieren und so die Grenze zwischen Authentizit?t und Simulation verwischen.
LLMs bzw. gro?e Sprachmodelle sind KI-Modelle mit Milliarden an Parametern, beispielsweise GPT-4. Sie werden anhand riesiger Datens?tze dafür trainiert, menschen?hnliche Texte zu bearbeiten und zu generieren. M?gliche Einsatzgebiete sind diverse sprachbezogene Aufgaben und Anwendungen. Die derzeit dominierende Architektur für LLMs sind Transformer.
Dabei handelt es sich in der Regel um ein Deep-Learning-Modell, das anhand eines umfangreichen Datensatzes trainiert wurde und dann für viele verschiedene Aufgaben verwendet werden kann. LLMs sind Beispiele für Basismodelle, die auf Sprache, Code, Bilder, Audio oder eine Kombination dieser Modalit?ten spezialisiert oder multimodal sind. Basismodelle k?nnen auch für spezielle Anwendungen wie Chatbots optimiert werden.
Der KI-Hub von Trend bringt innovative Technologie und erstklassige Sicherheit zusammen. Informieren Sie sich, wie KI Sicherheitsteams in die Lage versetzt, Bedrohungen zügig zu prognostizieren, zu antizipieren und zu erkennen. Prüfen Sie regelm??ig, welche aktuellen Ressourcen zum transformativen Einfluss von KI auf die Cybersicherheit es gibt. Sie helfen Ihnen dabei, neuen Bedrohungen einen Schritt voraus zu bleiben und KI-L?sungen sicher zu implementieren.
Weiterführende Forschung
Weiterführende Artikel