Een intelligente data-infrastructuur is essentieel in het AI-tijdperk

ai

In 2023 experimenteerden bedrijven en softwareontwikkelaars massaal met de mogelijkheden van generatieve AI. En AI is een hot topic. Marktonderzoeker IDC verwacht daarom technologieleveranciers de waarde van data steeds meer gaan inzien en actief gaan investeren in het verkrijgen van extra datasets die toevoegde waarde bieden.

Organisaties beschikken vaak over een grote hoeveelheid data die in de praktijk op allerlei locaties zijn opgeslagen. Dit gaat bijvoorbeeld om interne applicaties en databases, maar ook om databronnen.

In het snel evoluerende landschap van kunstmatige intelligentie en machine learning is het vermogen om verschillende soorten data te beheren en verwerken dan ook van cruciaal belang voor de kwaliteit van de inzichten die door de modellen worden geproduceerd. Dit stelt Oscar Wijnants, Country Managing Director NetApp Nederland. Hij vraagt zich daarbij af hoe organisaties hier grip op krijgen.

Optimale opslagstrategie

“Allereerst is het belangrijk om randvoorwaarden op te stellen voor een optimale opslagstrategie,” stelt Wijnants. “We moeten rekening houden met verschillende datatypen die organisaties gebruiken.” Hij denkt daarbij aan gestructureerde data zoals databases en spreadsheets. Maar ook aan ongestructureerde data zoals e-mails, afbeeldingen, audio, video en documenten. “Ook is het belangrijk te weten waar deze datatypen zich bevinden. Zijn ze on-premises, binnen een of op meerdere openbare clouds? Of zijn ze ondergebracht bij SaaS-providers die verspreid zijn over meerdere geografische regio’s?” Ook typen opslagarchitecturen spelen volgens Wijnants een rol. Wordt er gebruikt gemaakt van bestandsopslag, objectopslag of blokopslag?

Het samenstellen van een data-architectuur voor wijdverspreide AI-adoptie is geen routine blijkt uit het relaas van de Country Managing Director . Het is dan ook niet verwonderlijk dat veel bedrijven die GPU-servers aanschaffen of er toegang toe krijgen via hyperscalers, vastlopen in de fase van databeheer. Uit onderzoek van IDC blijkt dat dataverplaatsing/-beheer een van de meest voorkomende blokkades is voor succesvolle AI-implementatie.

Uniformiteit is key

“Een uniforme en intelligente benadering van infrastructuur kan de grenzen van silo-data overstijgen,” meent Wijnants. “Het maakt dan niet uit waar deze zijn opgeslagen. Een hybride IT-omgeving gaat uniform om met datamanagement. Dit resulteert in betrouwbare data.” Hoe beter dit is ingericht hoe groter de kans dat AI-initiatieven succesvol zijn. Ook voor bedrijven die wellicht nu nog achterlopen in de implementatie van AI, loont het om hun IT-omgevingen uniform te maken en zo voor te bereiden op AI. En gelukkig zien bedrijven wel de waarde hiervan in zo blijkt uit het Cloud Complexity Report van NetApp.

Operationeel maken van AI

Een uniforme data-infrastructuur helpt om gegevens makkelijker te delen en vergroot de zichtbaarheid. Wijnants: “Bovendien verplaatst men in een dergelijke infrastructuur grote datasets over verschillende verwerkingsstadia. Deze aanpak is essentieel voor het operationeel maken van AI, omdat het enorme hoeveelheden data vereist om ongehinderd door de deductiepijplijn te bewegen.”

Een intelligente infrastructuur kenmerkt zich ook door effectief databeheer. “Bedrijven moeten ervoor zorgen dat de juiste data wordt gebruikt met de juiste toegangscontroles en tegelijkertijd voldoet aan het interne beleid en de lokale regelgeving. Dat allemaal terwijl het intellectuele eigendom van de organisatie veilig en beschermd blijft.”

Gerelateerde berichten...