Amazon Bedrock krijgt boost met geavanceerde AI-modellen en tools voor veilige implementatie

Amazon Web Services (AWS) introduceert nieuwe innovaties in het Amazon Bedrock-platform, dat is gericht op de ontwikkeling van generatieve AI-toepassingen. Bedrock kent een grote toegankelijkheid, snelheid en veiligheid en biedt toegang tot foundation-modellen als AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI en Amazon. Met het platform kunnen organisaties generatieve AI snel implementeren en schalen zonder verantwoordelijk te zijn voor het beheer van complexe onderliggende infrastructuur.

Verschillende bedrijven, waaronder de New York Stock Exchange (NYSE), Ryanair en Netsmart, hebben Amazon Bedrock ingezet om innovatie in verschillende sectoren te stimuleren. NYSE gebruikt Bedrock om grote volumes juridische documenten in toegankelijk taal te verwerken, met als doel compliance te vergemakkelijken. Ryanair past Bedrock toe om crews te helpen om snel toegang te krijgen tot landspecifieke regelgeving en handleidingen. Netsmart wil de efficiency van documentatie in de gezondheidszorg met vijftig procent vergroten met de AI-automatiseringstools van Bedrock, zodat patiëntenzorg en administratieve processen worden gestroomlijnd.

Model-import, evaluatie en ethische controles

Een belangrijke nieuwe functionaliteit betreft het importeren van aangepaste modellen, waarmee organisaties deze kunnen integreren in het Bedrock-ecosysteem. Dat biedt de mogelijkheid om de ontwikkeling van nieuwe toepassingen te versnellen door gebruik te maken van modellen die zijn getraind op basis van eigen datasets. Ook introduceert AWS de ‘Model Evaluation’-tool, waarmee gebruikers efficiënt verschillende modellen kunnen beoordelen en vergelijken op basis van prestatiecriteria, wat de selectie van AI-toepassingen aanzienlijk versnelt. Om een verantwoorde AI-implementatie te garanderen, lanceert AWS daarnaast ‘Guardrails’, dat verbeterde veiligheidsfuncties biedt om ongewenste inhoud te filteren en te voldoen aan normen op het gebied van verslagleging. Deze set aan tools stelt organisaties in staat om te innoveren en tegelijkertijd ethische AI-praktijken te handhaven.

Als het gaat om nieuwe modellen heeft AWS de Amazon Titan-reeks in Bedrock uitgebreid met ‘Titan Text Embeddings V2’ en ‘Titan Image Generator’. Titan Text Embeddings V2 is geoptimaliseerd voor taken als het ophalen van data en chatbot-interacties, waarbij opslag- en rekenkosten aanzienlijk zijn verlaagd zonder afbreuk te doen aan de nauwkeurigheid. Titan Image Generator vergemakkelijkt het creëren van hoogwaardige afbeeldingen met behulp van natuurlijke taalaanwijzingen en bevat onzichtbare watermerken om de transparantie te verbeteren en desinformatie tegen te gaan.

Meta Llama 3

Ook beschikbaar op Amazon Bedrock zijn de Meta Llama 3 FM’s. Llama 3 is ontworpen voor ontwikkelaars, onderzoekers en bedrijven om hun generatieve AI-ideeën te bouwen, te experimenteren en op verantwoorde wijze op te schalen. De Llama 3 modellen zijn een verzameling voorgetrainde en instructie-gefinetunede LLM’s die een breed scala aan use cases ondersteunen. Ze zijn met name geschikt voor tekstsamenvatting en -classificatie, sentimentanalyse, taalvertaling en het genereren van codes. De volledige aankondiging kun je hier vinden. De Llama 3-modellen zijn een reeks vooraf getrainde en afgestemde generatieve tekstmodellen. Llama 2 is sinds vorig jaar beschikbaar via Amazon SageMaker JumpStart en on Amazon Bedrock.

Llama 3 wordt geleverd in twee parametergroottes – 8B en 70B met 8k contextlengte – die een breed scala aan gebruikssituaties ondersteunen met verbeteringen in redeneren, codegeneratie en het volgen van instructies. Llama 3 maakt gebruikt van een transformator-architectuur die uitsluitend uit decoders bestaat en van een nieuwe tokenizer die verbeterde modelprestaties biedt met een grootte van 128k. Daarnaast voorziet Meta in geoptimaliseerde post-training procedures die het aantal valse weigeringen aanzienlijk verminderen, de uitlijning verbeteren en de diversiteit van modelresponsen vergroten. Gebruikers kunnen profiteren van de gecombineerde voordelen van Llama 3-prestaties en MLOps-controles met Amazon SageMaker-functies, zoals SageMaker Pipelines, SageMaker Debugger of container logs. Bovendien wordt het model ingezet in een beveiligde AWS-omgeving onder VPC-controles, waardoor de gegevens beter beveiligd zijn.

Gerelateerde berichten...