Fortsetzung: Lösung für dynamische Datenquellen in Power BI

Wie man das Problem der dynamischen Datenquellen in Power BI löst, mit einem Beispiel! In meinem letzten Blogbeitrag habe ich gezeigt, wie man den Zugriff mit Power BI an ein privates Trello-Board mithilfe der API bekommt. Am Ende des Blogbeitrages habe ich noch ein Zusatztipp gegeben wie man an die Anhänge der Cards/Aufträge vom Trello-Board…

Streaming von Echtzeit-Daten in Azure Synapse Analytics

Auch Microsoft hat es verstanden: Das Internet der Dinge ist der Hit! Mehr und mehr Organisationen schaffen sich kleine Geräte an, verbinden diese mehr oder weniger direkt mit dem Internet, und messen und erfassen damit alle möglichen Informationen, die das Gerät dann mehr oder weniger in Echtzeit in die Cloud sendet. Dieser Artikel zeigt in einfachen Schritten auf, wie man solche Geräte mit der neuen Big Data-Plattform von Microsoft, genannt Azure Synapse Analytics, verbinden kann!

Verbindung von einem privaten Trello-Board mit Power BI Desktop

Wie man mithilfe der WEB-API eine Verbindung mit PBID zu Trello herstellt Als ich mich mit der Aufgabe beschäftigt habe, ein privates Trello-Board mit Power BI zu verbinden, um daraus dann Reports zu erstellen, die sich auch automatisch aktualisieren lassen, habe ich im Internet versucht zu recherchieren wie das funktioniert, aber konnte nur wenig oder wenig…

Azure Data Factory – Event Grid, Trigger und parallele Verarbeitung

Der ganze Prozess findet ausschließlich in der Cloud statt – nichts mehr mit der guten alten on-premise Technologie! Und all das kann sogar noch skaliert werden. In der obigen Abbildung haben wir die Concurrency der Pipeline auf 10 gestellt, d.h. bis zu 10 Instanzen der Pipeline können parallel laufen, wenn in kurzer Zeit eine größere Anzahl Files eintrifft. In der alten Welt hätten wir in klassischen SSIS-Paketen mit for-each-loop Containern die Files irgendwie gelesen und weiterverarbeitet.

Matherätsel – T-SQL und Python schlagen zurück!

Vor kurzem stellte unser Kollege Tobias ein Matherätsel vor, welches er sogleich mit dem Cubeware Importer löste. Die grundsätzliche Idee hinter dem Lösungsansatz wurde dort bereits genau ausgeführt, doch Tobias stellte sich nach der schönen Cubeware-Lösung dann doch bald die Frage: muss das nicht auch mit T-SQL gehen? Schließlich machen wir doch den ganzen Tag nichts anderes…

Ein besseres Backup-Konzept für Azure SQL als Datawarehouse

Wir sind große Fans der Möglichkeit, den SQL Server in Azure “serverless” zu betreiben! Diese Variante hat gegenüber den traditionellen Versionen Basic, Standard, oder Premium, die über eine konstante Menge von DTUs abgerechnet werden, den Vorteil, dass sie dynamisch hoch- und herunterskaliert, je nachdem, wie intensiv sie benutzt werden, und dass dann auch nur über sogenannte “vCores” genau das an Rechenzeit abgerechnet wird, was man auch genutzt hat. Super!