Anthropic: Neue Konkurrenz für OpenAI


Anthropic plant neues KI-Modell

Der Wettstreit um die das beste KI-Modell nimmt kein Ende. Immer wieder positionieren sich neue Player auf dem Markt. Jetzt ist ein neues Start-Up auf der Bildfläche aufgetaucht – und dieses möchte es gleich mit dem Chatbot ChatGPT aufnehmen. Das Modell des Unternehmens Anthropic soll zehnmal so leistungsstark werden, wie der Konkurrent der Firma Open AI. 

Anthropic wurde 2021 von ehemaligen Mitarbeiter:innen des Unternehmens OpenAI gegründet. OpenAI führt den Markt aktuell mit seiner künstlichen Intelligenz ChatGPT an, die es mittlerweile auch in Form von kostenlosen Erweiterungen für den eigenen Browser gibt. Doch das junge Forschungsunternehmen Anthropic möchte OpenAI nun den Rang streitig machen. Insgesamt rechnet das Start-Up mit über fünf Milliarden Dollar, die über mehrere Finanzierungsrunden in die Entwicklung des ChatGPT-Konkurrenten fließen sollen.

Anthropic: Abspaltung von OpenAI wegen Sicherheitsbedenken

Das KI-Forschungsunternehmen Anthropic ist deshalb entstanden, weil Entwickler:innen bei den großen KI-Modellen massive Sicherheitsbedenken hatten. Gerade die Gründer:innen des Unternehmens sehen in dem Wettstreit, um das beste KI-Modell eine große Gefahr. Und zwar, dass Unternehmen aus reinem Innovationsdrang heraus unsichere Systeme auf den Markt bringen. So könnten Systeme für gefährliche Ziele eingespannt werden oder gar Fehler machen, die vom Mensch nicht gewollt waren. Die Sicherheitsrisiken durch KI-Systeme sind ohnehin ein weit verbreiteter Streitpunkt. Das liegt auch an der bisher ungeklärten Rechtsgrundlage im Hinblick auf die Systeme. Erst kürzlich geriet der Bildgenerator Midjourney wegen Sicherheitsbedenken und Missbrauchsvorwürfen in Verruf. Anthropic möchte deswegen den Fokus auf Sicherheit bei der Entwicklung seines KI-Modells legen. Aus diesem Grund sind in die Entwicklung vor allem auch Expert:innen der Bereiche Ethik und Recht involviert. Durch sie soll eine Art Sicherheitsprofil erstellt werden, das verschiedene Szenarien abdeckt und somit Sicherheitslücken schließt.

Verständnis für die Lernprozesse der Systeme fehlt oftmals

Anthropic kritisiert vor allem die Trainierbarkeit der Systeme. Bisher sind Entwickler:innen nicht dazu in der Lage zu erkennen, wie Systeme trainiert werden müssen, damit sie langfristig hilfreiche, ehrliche und ebenso harmlose Antworten von sich geben. Anthropic möchte die Entwicklungsrichtung schon im Vorfeld lenken, indem sie Wert auf die skalierende Überwachung, mechanische Interpretierbarkeit und dem wohl wichtigsten Aspekt legen: dem Verständnis der Lernprozesse von KI-Systemen. Denn erst, wenn Unternehmen daran arbeiten, die Prozesse der Systeme zu durchschauen, kann auch an einem vernünftigem Sicherheitskonzept gearbeitet werden. Ansonsten könnte die Entwicklung der Systeme schnell in eine Richtung verlaufen, die nicht mehr kontrollierbar ist und mehr Schaden anrichtet, als das sie den Menschen nützt.

 

 

 

 

Previous Briefing Arten: Übersicht der wichtigsten Briefings – Definitionen und Nutzen
Next LinkedIn Recruiting richtig angehen – Checkliste für HR-Verantwortliche

No Comment

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

19 + 13 =