Inhoudsopgave:
- Big data server virtualisatie
- Big data-toepassingsvirtualisatie
- Virtualisatie van grote datanetwerken
- Big data-processor en geheugenvirtualisatie
- Big data- en opslagvirtualisatie
Video: Tech Dive: HPE Synergy Overview 2024
Het oplossen van grote gegevensuitdagingen vereist het beheer van grote volumes sterk gedistribueerde gegevensopslagruimtes, samen met het gebruik van computergegevens. en data-intensieve applicaties. Virtualisatie biedt het extra niveau van efficiëntie om big data-platforms te realiseren. Hoewel virtualisatie technisch gezien geen vereiste is voor big data-analyse, zijn softwarekaders efficiënter in een gevirtualiseerde omgeving.
Virtualisatie heeft drie kenmerken die de schaalbaarheid en operationele efficiëntie ondersteunen die vereist zijn voor omgevingen met grote gegevens:
-
Partitionering: In virtualisatie worden veel toepassingen en besturingssystemen ondersteund in één enkel fysiek systeem door partitioneren van de beschikbare bronnen.
-
Isolatie: Elke virtuele machine is geïsoleerd van zijn fysieke hostsysteem en andere gevirtualiseerde machines. Vanwege deze isolatie worden de andere virtuele machines en het hostsysteem niet beïnvloed als een virtueel exemplaar crasht. Bovendien worden de gegevens niet gedeeld tussen de ene virtuele instantie en de andere.
-
Inkapseling: Een virtuele machine kan als één bestand worden weergegeven, zodat u deze gemakkelijk kunt identificeren op basis van de services die deze biedt.
Big data server virtualisatie
Bij servervirtualisatie is één fysieke server onderverdeeld in meerdere virtuele servers. De hardware en bronnen van een machine - inclusief het RAM (Random Access Memory), CPU, harde schijf en netwerkcontroller - kunnen worden gevirtualiseerd tot een reeks virtuele machines die elk hun eigen toepassingen en besturingssysteem draaien.
Een virtuele machine (VM) is een softwareversie van een fysieke machine die dezelfde functies als de fysieke machine kan uitvoeren of uitvoeren. Een dunne laag software wordt daadwerkelijk in de hardware ingevoegd die een virtuele machinemonitor of hypervisor bevat.
Servervirtualisatie gebruikt de hypervisor om efficiëntie bij het gebruik van fysieke bronnen te bieden. Natuurlijk zijn installatie-, configuratie- en beheertaken gekoppeld aan het instellen van deze virtuele machines.
Servervirtualisatie helpt ervoor te zorgen dat uw platform kan worden aangepast om de grote volumes en verschillende soorten gegevens in uw big data-analyse te verwerken. U weet mogelijk niet de omvang van het benodigde volume voordat u met uw analyse begint. Deze onzekerheid maakt de behoefte aan servervirtualisatie nog groter en biedt uw omgeving de mogelijkheid om te voldoen aan de onverwachte vraag naar het verwerken van zeer grote gegevenssets.
Daarnaast biedt servervirtualisatie de basis waarmee veel van de cloudservices die worden gebruikt als gegevensbronnen kunnen worden gebruikt in een big data-analyse. Virtualisatie verhoogt de efficiëntie van de cloud waardoor veel complexe systemen eenvoudiger te optimaliseren zijn.
Big data-toepassingsvirtualisatie
Applicatie-infrastructuurvirtualisatie biedt een efficiënte manier om applicaties te beheren in samenhang met de vraag van klanten. De applicatie is zodanig ingekapseld dat de afhankelijkheden van het onderliggende fysieke computersysteem worden verwijderd. Dit helpt om de algehele beheersbaarheid en draagbaarheid van de applicatie te verbeteren.
Bovendien maakt de virtualisatie-software voor toepassingsinfrastructuur meestal het coderen van zakelijk en technisch gebruiksbeleid mogelijk om ervoor te zorgen dat elk van uw toepassingen op een voorspelbare manier gebruik maakt van virtuele en fysieke bronnen. Efficiencies worden behaald omdat u IT-resources gemakkelijker kunt verdelen op basis van de relatieve bedrijfswaarde van uw applicaties.
Applicatie-infrastructuurvirtualisatie die wordt gebruikt in combinatie met servervirtualisatie kan helpen ervoor te zorgen dat aan bedrijfsovereenkomsten op serviceniveau wordt voldaan. Servervirtualisatie bewaakt CPU- en geheugengebruik, maar houdt geen rekening met variaties in zakelijke prioriteit bij het toewijzen van resources.
Virtualisatie van grote datanetwerken
Netwerkvirtualisatie biedt een efficiënte manier om netwerken te gebruiken als een pool van verbindingsbronnen. In plaats van te vertrouwen op het fysieke netwerk voor het beheren van verkeer, kunt u meerdere virtuele netwerken maken die allemaal dezelfde fysieke implementatie gebruiken. Dit kan handig zijn als u een netwerk voor gegevensverzameling wilt definiëren met een bepaalde set prestatiekenmerken en -capaciteit en een ander netwerk voor toepassingen met verschillende prestaties en capaciteit.
Virtualisatie van het netwerk helpt deze knelpunten te verminderen en de mogelijkheid om de grote gedistribueerde gegevens die nodig zijn voor big data-analyse te beheren.
Big data-processor en geheugenvirtualisatie
Processor-virtualisatie helpt de processor te optimaliseren en de prestaties te maximaliseren. Geheugenvirtualisatie ontkoppelt het geheugen van de servers.
In big data-analyse hebt u mogelijk herhaalde query's van grote gegevenssets en het maken van geavanceerde analytische algoritmen, allemaal ontworpen om te zoeken naar patronen en trends die nog niet worden begrepen. Deze geavanceerde analyses kunnen veel verwerkingskracht (CPU) en geheugen (RAM) vereisen. Voor sommige van deze berekeningen kan het lang duren zonder voldoende CPU- en geheugenbronnen.
Big data- en opslagvirtualisatie
Gegevensvirtualisatie kan worden gebruikt om een platform voor dynamisch gekoppelde gegevensservices te maken. Hierdoor kunnen gegevens eenvoudig worden doorzocht en gekoppeld via een verenigde referentiebron. Als gevolg hiervan biedt gegevensvirtualisatie een abstracte service die gegevens in een consistente vorm levert, ongeacht de onderliggende fysieke database. Bovendien stelt datavirtualisatie gegevens in de cache bloot aan alle toepassingen om de prestaties te verbeteren.
Opslagvirtualisatie combineert fysieke opslagbronnen zodat deze effectiever worden gedeeld. Dit verlaagt de opslagkosten en maakt het eenvoudiger om datastores te beheren die nodig zijn voor big data-analyse.