Digital Twin Data Center

Digital Twin Data Center

Digital Twins worden gezien als innovaties, waarbij een virtuele replica van echte asset en hun omgeving wordt gecreëerd. Deze Digital Twins bieden tal van voordelen in verschillende sectoren, waaronder de bouwsector. Veel gebruikers hebben echter weinig inzicht in het proces van het creëren van een Digital Twin. In deze serie willen we deze kloof overbruggen door inzicht te geven in de creatie van een Digital Twin. Terwijl het vorige artikel ging over de vereisten van een Digital Twin, gaat dit artikel dieper in op het Digital Twin data center en Digital Twin datamodellen. Laat je nu inspireren!

Technisch Platform

Het technische platform is de kern van de Digital Twin en bestaat uit softwarecomponenten om taken zoals dataverwerking, dataopslag en databeheer te beheren. Deze componenten zijn de bouwstenen van de Digital Twin infrastructuur:

Hosting en Deployment: De basis van de Digital Twin is opgebouwd op een cloudplatform aangedreven door Google Kubernetes Engine (GKE). Daarnaast wordt Docker gebruikt zodat alle individuele technische componenten kunnen samenwerken.

Beveiliging: Het waarborgen van de beveiliging en vertrouwelijkheid van gevoelige informatie en data is belangrijk binnen het technische platform. Slimme beveiligingsfuncties zijn geïntegreerd in dit platform om de Digitale Tweeling te beschermen tegen bijvoorbeeld cyberdreigingen en ongeautoriseerde toegang. Gebruikersrollen zijn aanpasbaar, wat betekent dat de verschillende secties van de Digital Twin infrastructuur alleen toegankelijk zijn bepaalde personen. Dit is ook in lijn met de ISO norm.

Open source: Open-source software heeft openbare toegang tot de broncode, waardoor inspectie, aanpassing en verbetering mogelijk zijn. Onze Digital Twin platform maakt ook gebruik van open-source software, waardoor we kunnen voldoen aan de specifieke wensen voorafgaand aan het bouwen van de Digital Twin. Naast open-source software gebruiken we ook andere methoden voor gegevensverzameling, zoals data-archieven en sensorgegevens. Lees meer hierover in ons artikel over Digital Twin vereisten.

Open standaarden: Open standaarden dienen zijn belangrijk voor een efficiënte werking van de Digital Twin. Bijvoorbeeld, standaarden voor dataformaten, metadata, datacatalogi en data-uitwisseling zorgen voor consistentie en compatibiliteit tussen verschillende systemen. Veel van de geodata-standaarden die wij gebruiken worden onderhouden door het Open Geospatial Consortium (OGC).

Victor van Katwijk

Meer weten over de Digital Twin?

Victor van Katwijk

Neem gerust contact met ons op.
Victor van Katwijk is onze expert op dit gebied.

Mail mij

Digital Twin Data Opslag

Digital Twins draaien om data en deze data moet worden opgeslagen. Er zijn veel verschillende soorten databases, elk met zijn eigen voordelen. De keuze van een database hangt af van factoren zoals dataformaten en gebruik. We gaan dieper op dit onderwerp in:

  • Opslag: Gegevens, zoals 3D-tegels, kunnen worden opgeslagen als bestanden, afbeeldingen of tekst formaten zoals CSV of JSON. Deze data-objecten worden gehuisvest binnen de cloud.

 

  • Relationele data: Gestructureerd als een tabel, worden relationele databases gebruikt voor het opslaan van relationele data. PostgreSQL is een open-source databasesysteem dat hiervoor is ontworpen. Dit systeem biedt extensies om de opslag voor verschillende datatypes te optimaliseren, waaronder PostGIS voor geospatiale data, h3 voor hexagonale rasters, en pgvector voor AI-toepassingen.

 

  • Realtime data: Realtime data wordt continu verzameld en verwerkt door sensoren. Deze sensoren spelen dus een belangrijke rol bij het creëren van Digital Twins. Deze realtime data biedt live inzichten in de assets of geeft andere inzichten zoals de hoeveelheid verkeer of de status van het weer. Hydra is een extensie voor PostgreSQL voor het efficiënt opslaan van realtime data. Deze real time data kunnen ook worden opgeslagen in Parquet-bestanden voor een gemakkelijke export.

 

  • Vector data: Vector data is een manier om objecten uit de echte wereld te tonen in een omgeving voor GIS. pgvector is een extensie voor PostgreSQL om dergelijke data op te slaan.

Digital Twin Data Management

Naarmate de hoeveelheid data toeneemt, wordt het steeds uitdagender om een duidelijk overzicht te behouden. Digital Twin Data Management gaat over het bijhouden van datakwaliteit, traceerbaarheid en andere metadata. Door gebruik te maken van de FAIR-principes (Findable, Accessible, Interoperable, Reusable), zorgen we ervoor dat data goed georganiseerd en bruikbaar blijft.

Datasets binnen de Digital Twin worden systematisch gecatalogiseerd samen met hun metadata. Metadata zijn belangrijke beschrijvingen van data en bieden informatie zoals licenties, kwaliteit en structuur. Metadata spelen een belangrijke rol bij het volgen van data en het delen van datasets.

Digital Twin Data Management

Digital Twin Tools

Nu ons technische platform klaar is en we veel data hebben verzameld, gaan we verder met het bouwen van de Digital Twin door middel van verschillende tools. Dit kan worden gedaan op verschillende manieren, waaronder het combineren van bestaande datasets om nieuwe data te genereren en het toepassen van modellering en machine learning technieken om nieuwe inzichten te genereren. We zullen dieper ingaan op deze methoden:

  • Datafusie combineert data uit verschillende bronnen. Het doel is om de data te combineren om een nieuwe dataset met een hogere waarde te creëren. Datafusie kan op verschillende manieren worden uitgevoerd. Bijvoorbeeld onze 3D-gebouwen dataset, waar point cloud gegevens worden gecombineerd met footprints van gebouwen om automatisch 3D-gebouwenmodellen te genereren.

 

  • AI en Machine learning (ML) worden steeds vaker gebruikt, waaronder ook in het van Geo-IT domein. Door middel van AI en ML is het mogelijk om grote hoeveelheden data te analyseren. ML stelt computers in staat om te leren van data zonder te programmeren. ML-algoritmen kunnen leren van data en voorspellingen doen op basis van deze geleerde patronen. Bijvoorbeeld, ML-algoritmen kunnen objecten in afbeeldingen detecteren of toekomstige gebeurtenissen voorspellen op basis van historische data. Dit wordt ook toegepast binnen Digital Twinning, bijvoorbeeld ML kan ramen identificeren op luchtbeelden en deze informatie opnemen in een gebouwen dataset. Dit is bijvoorbeeld interessant voor een Digital Twin voor de energiesector. We gebruiken dit bijvoorbeeld om het energieverbruik van een huis te berekenen, aangezien energie gemakkelijker kan ontsnappen via de ramen.

 

  • Predictive Modelling stelt ons in staat om het gedrag van een systeem te simuleren en te voorspellen. Modellen zijn in feite berekeningen die worden gebruikt om verschillende scenario's onder verschillende omstandigheden te testen. Bijvoorbeeld, modellen kunnen de stabiliteit van assets onder verschillende scenario's voorspellen. In de context van slimme steden kunnen AI-modellen stromen van mensen in het openbaar vervoer en verkeer voorspellen, wat belangrijke inzichten biedt voor efficiënte stedelijke planning.

Wil je meer weten over hoe een Digital Twin realtime data gebruikt voor voorspellende modellering? Bezoek dan onze Digital Twin pagina.

Data Processing Pipelines

Binnen de Digital Twin infrastructuur stroomt de data tussen opslaglocaties en verwerkingshulpmiddelen. Dit hele overdrachtsproces wordt vaak ETL genoemd: Extract, Transform, Load. Ons doel is om ervoor te zorgen dat ETL-pijplijnen soepel en efficiënt werken. We zullen dieper ingaan op enkele voorbeelden van Digital Twin dataverwerking.

  • Georeferentiëring: Er bestaan talloze coördinatenreferentiesystemen. Het afstemmen van alle data op hetzelfde coördinatensysteem (d.w.z. georeferentiëring) is vereist om ervoor te zorgen dat alle Digital Twin data samen kan worden gebruikt. GDAL, een open-source bibliotheek voor geospatiale dataverwerking, is belangrijk voor het converteren van data naar verschillende coördinatensystemen en geografische formaten.

 

  • 3D Data conversie: Om visualisatie te vergemakkelijken, worden gegevens omgezet in 3D-formaten. PostGIS is een handig hulpmiddel voor het construeren van 3D-geometrieën binnen een PostgreSQL-database. Onze Research afdeling gebruikt op maat gemaakte tools, zoals pg2b3dm en export, om 3D-gegevens rechtstreeks vanuit PostgreSQL-databases om te zetten in gestandaardiseerde 3D-formaten.

 

  • Geautomatiseerde ETL-processen: ETL-pijplijnen kunnen complex zijn omdat de vereiste invoer en uitvoer per dataverwerkingstool verschillend zijn. Het automatiseren van dit ETL-proces helpt fouten te voorkomen en de data up-to-date te houden. Mage is een tool om complete ETL-pijplijnen te automatiseren. Bijoorbeeld om data uit een bron te halen, deze data te transformeren en vervolgens in een database te laden.
Data Processing Pipelines

Digital Twin API’s en Digital Twin Services

Nu we in staat zijn om onze data op te slaan, te verwerken en te beheren, wordt deze data niet automatisch geïntegreerd in de Digital Twin. De laatste stap in de Digtal Twin data center is het beschikbaar maken van de data voor gebruikers. Dit wordt bereikt via API’s, die softwarecomponenten zijn die communicatie en data-uitwisseling tussen applicaties mogelijk maken. We delen graag meer hierover:

  • Web API: Dataverwerkingstools kunnen worden geïntegreerd in een webframework om HTTP-gebaseerde query’s mogelijk te maken. Dit is belangrijk omdat er de simulaties vervolgens via het web toegankeljk zijn. Dit betekent dat eindgebruikers simulaties in realtime kunnen uitvoeren.

 

  • OGC Web Map Services: OGC Web Map Services (WMS) en Web Map Tiled Services (WMTS) zijn standaardprotocollen die zijn opgesteld door het Open Geospatial Consortium (OGC) voor het online delen van 2D-kaartlagen. Deze diensten worden vaak gebruikt in GIS-systemen om kaartbeelden van externe servers op te vragen en te ontvangen. GeoServer is een open-source tool die wordt gebruikt voor het publiceren van geospatiale data als webdiensten.

 

  • Tiled Map Services: Alternatieven zoals Cloud Optimized GeoTIFF (COG), MBTiles en PMTiles hebben kaartlagen beschikbaar. Deze kaartlagen zijn op een schaalbare en kosteneffectieve manier zonder server-side beheer te gebruiken.

 

  • OGC SensorThings API: De OGC SensorThings API is een standaard voor het bieden van toegang tot IoT-sensorgegevens. Ontwikkeld door het Open Geospatial Consortium (OGC), biedt deze API een open en uniforme methode om IoT-apparaten en -toepassingen via het web te verbinden. FROST-Server, een open-source implementatie van de SensorThings API, faciliteert de integratie van realtime sensorgegevens voor het Sogelink Digital Twin platform.

Key Takeaways

  • De kern van de Digital Twin, het technische platform, beheert dataopslag, verwerking en beheer. Samenvattend is het technische platform de ruggengraat van de Digital Twin, die efficiënte en veilige datahandling garandeert voor optimale prestaties.

 

  • Het beheren van data in de Digital Twin is belangrijk naarmate het volume toeneemt. Door de FAIR-principes (Findable, Accessible, Interoperable, Reusable) te volgen, blijft data georganiseerd en bruikbaar.

 

  • Datafusie combineert beschikbare databronnen voor nieuwe inzichten, zoals het samenvoegen van cloud points- en footprints voor 3D-modellen van gebouwen. Machine learning analyseert grote datasets, identificeert objecten in afbeeldingen of voorspelt gebeurtenissen. Predictive modeling simuleert systeemgedrag, helpt bij het voorspellen van infrastructurele stabiliteit en stedelijke planning in slimme steden.

 

  • In de Digital Twin infrastructuur stroomt data naadloos tussen opslag- en verwerkingshulpmiddelen via ETL (Extract, Transform, Load) processen.

FAQ

1. Wat is het Digital Twin data center?

Het Digital Twin data center is de kern van de Digital Twin. Dit data center is verantwoordelijk voor het beheren van dataopslag, verwerking en dienstverlening binnen een technisch platform.

2. Wat zijn de belangrijkste componenten van het technische platform?

Het technische platform omvat hosting en deployment in een cloudomgeving, robuuste beveiligingsfuncties, gebruik van open-source software en standaarden, en integratie van AI- en machine learning-technologieën.

3. Hoe wordt data opgeslagen binnen het Digital Twin data center?

Dataopslag omvat verschillende typen zoals objectopslag voor bestanden, relationele databases zoals PostgreSQL, kolomopslag voor realtime data en vectordatabases geoptimaliseerd voor AI-algoritmen.

4. Hoe wordt data beheerd binnen het Digital Twin data center?

Databeheer volgt de FAIR-principes (Findable, Accessible, Interoperable, Reusable), waarbij datasets systematisch worden gecatalogiseerd met metadata. Daarnaast worden normen zoals ISO-19115 voor geospatiale metadata nageleefd en AI wordt gebruikt voor verbeterde dataset zoekopdrachten.

5. Welke analysetools worden gebruikt in het Digital Twin data center?

Analysetools omvatten datafusie voor het combineren van datasets, AI en machine learning voor data-analyse, en predictive modeling voor het simuleren van systeemgedrag onder verschillende omstandigheden.

Bezoek onze Digital Twin FAQ pagina voor meer veelgestelde vragen over Digital Twins.

Victor van Katwijk

Meer weten over de Digital Twin?

Victor van Katwijk

Neem gerust contact met ons op.
Victor van Katwijk is onze expert op dit gebied.

Mail mij