Nach Microsoft und Google mischt auch Amazon im KI-Markt mit. Der US-Konzern hat mit "Bedrock" eine Reihe von KI-Lösungen vorgestellt, einschliesslich des grundlegenden Large-Language-Models (LLMs). Kunden können damit Texte und Softwarecode schreiben, Chatbots erstellen oder Bilder klassifizieren. Es beinhaltet auch ein "KI-Basismodell", auf dem Unternehmen weiter aufbauen können. Etwa können sie es mit ihren eigenen Daten anreichern und an die eigenen Bedürfnisse anpassen.
"Die meisten Unternehmen wollen grosse Sprachmodelle nutzen", so Amazon-CEO Andy Jassy
bei 'CNBC'. "Aber die wirklich guten Modelle kosten Milliarden von Dollar und viele Jahre, um sie zu trainieren." Mit Bedrock biete man ein Grundmodell, das bereits trainiert ist und das Unternehmen für ihre eigenen Zwecke adaptieren können.
Diese Anpassungen würden innerhalb des Unternehmens bleiben und nicht verwendet, um das Grundmodell insgesamt weiterzutrainieren. Damit sollen auch Befürchtungen zerstreut werden, dass durch die Verwendung von KI-Modellen Unternehmensdaten in falsche Hände gelangen könnten. AWS-CEO Adam Selipsky glaubt deshalb, dass sich die Amazon-KI besser für Unternehmen eigne als andere Angebote, wie er
dem 'Wall Street Journal' sagt. Text-, Bild- und Code-Generierung
Über Bedrock bietet AWS Zugang zu seinem eigenen Sprachmodell Titan an. Daneben sind die Modelle der Startups AI21 und Anthropi integriert. Hinzu kommt das Modell von Stability AI für die Bild-Generierung.
Daneben zeigte das Unternehmen eine Preview-Version von Codewhisperer, einem KI-Programmierassistenten für Python, Java, JavaScript, TypeScript und C#. Er kann ab sofort getestet werden und bietet ähnliche Funktionen wie Githubs Copilot.
Zugang via Cloud
Laut dem Konzern ist ein wichtiger Teil des Bedrock-Angebots, dass AWS-Kunden die neuen KI-Technologien testen können, ohne die zugrundeliegenden Rechenzentrumsserver verwalten zu müssen.
Bei der Server-Infrastruktur handelt es sich um kostspielige Investitionen, da KI-Modelle sehr rechenintensiv sind. Die über die Cloud zugänglichen Bedrock-Services würde auf einer Kombination von Amazons KI-Chips, Trainium und Inferentia, sowie Nvidia-GPUs betrieben, erklärt Amazon.