Zum Ende des letzten Jahres stellte OpenAI ein neues Sicherheitskonzept für seine künstliche Intelligenz vor. Das Risiko wird dabei anhand von bestimmten Merkmalen in unterschiedliche Kategorien eingeteilt. Von niedriger Risikostufe bis kritisch können die KI-Modelle eingeordnet werden. Mit diesem Sicherheitskonzept von OpenAi will man den offenen Fragen rund um die Gefahren von KI entgegentreten.
Mit ChatGPT hat OpenAI in der Branche Wellen geschlagen. Innerhalb eines Jahres konnte sich der Chatbot als Marktführer durchsetzen und wird mittlerweile in vielen Lebensbereichen genutzt. Egal ob es um Shopping oder das einfache Suchen nach Informationen, das eigentlich Suchmaschinen wie Google übernehmen, geht – ChatGPT kann, auch dank seiner Plugins, viele Arbeitsschritte erleichtern. Nicht zuletzt die Erweiterung des Chatbots, die es ihm nun ermöglicht das Internet zu durchforsten, wirft jedoch Fragen rund um die Risiken und Gefahren der KI auf. Darauf soll das neue Sicherheitskonzept nun Antworten geben, oder zumindest Teilantworten. Unter dem Motto ‚Vorbereitung‘ sollen die verschiedenen KI-Modelle (das bereits veröffentlichte ChatGPT und auch die KIs, die noch in den Entwicklungsphasen sind) in Risikokategorien eingeordnet werden.
Die vier Kategorien des Sicherheitskonzepts von OpenAI
In einer sogenannten Scorecard werden verschiedene Eigenschaften von KI-Modellen in diese vier Kategorien eingeordnet:
- Niedrig
- Mittel
- Hoch
- Kritisch
Die Eigenschaften, die untersucht werden, sind Cybersecurity, CBRN (chemische, biologische, radiologische oder nukleare Bedrohungen), Überredungskünste und die Selbständigkeit des Modells. Jede Eigenschaft bekommt ihre eigene Kategorie. Die abschließende Einschätzung des gesamten KI-Modells entspricht der höchsten Einzelkategorie. Das bedeutet also, dass eine KI, die bei 3 von 4 Eigenschaften niedrig eingestuft wird, aber einmal eine mittlere Einstufung erhält, insgesamt auch mit mittlerem Risiko bewertet wird.
Was bewirkt diese Einordnung?
Der Risikoscore, den ein KI-Modell erhalten hat, bestimmt seine Zukunft. Modelle, die in die mittlere Kategorie oder niedriger fallen, dürfen eingesetzt werden. Das bedeutet, dass die Risiken bezüglich der Cybersicherheit, der CBRN-Bedrohungen, der Überzeugungskünste und der Autonomie als niedrig oder mittel eingestuft wurden. Dann darf dieses Modell in die Gesellschaft eingeführt werden.
Bei der Weiterentwicklung ist OpenAI weniger strikt. So dürfen Modelle mit einer Risikobewertung von niedrig bis hoch weiterentwickelt werden. Lediglich die Risikokategorie kritisch wird hier ausgenommen. Für diese Kategorie sollen zusätzliche Sicherheitsmaßnahmen entwickelt werden.
Wie gefährlich ist KI?
Die Risiken von KI werden schon längere Zeit diskutiert. Obwohl diese Diskussion sich meistens um die rechtlichen Rahmenbedingungen oder den Verlust von Arbeitsplätzen dreht. Die oft gestellten Datenschutzfragen werden mit der Cybersecurity Kategorie nun abgedeckt. Die drei anderen Kategorien beziehen sich eher auf Bedenken, die Forscher:innen und Branchenexpert:innen aufwerfen. Deswegen muss man die potenziellen Gefahren von KI-Modellen, die zu gut sind und deshalb eine Bedrohung für Menschen darstellen, ebenfalls bedenken. OpenAI macht mit den neuen Sicherheitsvorkehrungen einen ersten Schritt in diese Richtung.
Bildquellen
- OpenAI: Pexels
No Comment