Azure Data Factory – Event Grid, Trigger und parallele Verarbeitung

Der ganze Prozess findet ausschließlich in der Cloud statt – nichts mehr mit der guten alten on-premise Technologie! Und all das kann sogar noch skaliert werden. In der obigen Abbildung haben wir die Concurrency der Pipeline auf 10 gestellt, d.h. bis zu 10 Instanzen der Pipeline können parallel laufen, wenn in kurzer Zeit eine größere Anzahl Files eintrifft. In der alten Welt hätten wir in klassischen SSIS-Paketen mit for-each-loop Containern die Files irgendwie gelesen und weiterverarbeitet.

SSIS-Katalog Maintenance in Azure

Wischmopp statt Saugroboter Wer seine ETL-Projekte in die Azure-Cloud migrieren, aber nicht auf die erprobten „old-school“ SSIS-Pakete verzichten möchte, hat bekanntlich die Möglichkeit, SSIS auf Azure zu benutzen. Azure besteht hierbei – ganz wie gewohnt – auf eine Datenbank für die SSISDB, und auf die Paketbereitstellung in einen gleichnamigen Integration-Services-Katalog. Dieser Katalog hat zwei ganz…

Scoping in Power Pivot und SSAS Tabular Models

Wenn man in einem SSAS (multidimensionalem) Cube ein Measure definiert, dann wird dieses standardmäßig auf den gesamten Cube angewendet. Es ist jedoch möglich, für Teilbereiche oder sogar einzelne Zellen des Cubes auch spezielle Kalkulationen oder Werte zuzuweisen , die nur dort gelten. Dieses Verhalten erreicht man über sogenannte SCOPE Befehle. Scoping gehört zu den mächtigsten…

Matherätsel – T-SQL und Python schlagen zurück!

Vor kurzem stellte unser Kollege Tobias ein Matherätsel vor, welches er sogleich mit dem Cubeware Importer löste. Die grundsätzliche Idee hinter dem Lösungsansatz wurde dort bereits genau ausgeführt, doch Tobias stellte sich nach der schönen Cubeware-Lösung dann doch bald die Frage: muss das nicht auch mit T-SQL gehen? Schließlich machen wir doch den ganzen Tag nichts anderes…

Ein besseres Backup-Konzept für Azure SQL als Datawarehouse

Wir sind große Fans der Möglichkeit, den SQL Server in Azure “serverless” zu betreiben! Diese Variante hat gegenüber den traditionellen Versionen Basic, Standard, oder Premium, die über eine konstante Menge von DTUs abgerechnet werden, den Vorteil, dass sie dynamisch hoch- und herunterskaliert, je nachdem, wie intensiv sie benutzt werden, und dass dann auch nur über sogenannte “vCores” genau das an Rechenzeit abgerechnet wird, was man auch genutzt hat. Super!