SSDs vs. SAS Festplatten – Ein Performancevergleich

Beim Betreiben eines SQL Servers spielt die Hardware eine entscheidende Rolle für die Performance des Systems. Microsoft bietet zusammen mit Hardware-Partnern zwar Fast-Track-Server an, in vielen Fällen ist es jedoch nicht möglich eine solche Konfiguration einzusetzen.

Wer sich seinen Server selbst zusammenstellt wird heutzutage immer wieder die Frage gestellt, ob es sich lohnt SSDs einzusetzen oder ob ein älteres System durch den Einsatz von SSDs beschleunigt werden kann. In diesem Performancevergleich habe ich SSDs gegen SAS Platten antreten lassen.

Vorwärts immer, rückwärts nimmer?

Die Anzahl der Neuerungen der Integration Services 2014 gegenüber 2012 ist bekanntermaßen recht überschaubar: “SQL Server 2014 Integration Services is unchanged from the previous release” lautet es unter What’s New (Integration Services). Entsprechend einfach gestaltet sich auch das Upgrade eines mit SSIS 2012 entwickelten Pakets auf SSIS 2014 – dieses geschieht quasi automatisch beim Hinzufügen eines 2012er Pakets zu einem 2014er Projekt.

Doch was, wenn der Weg auch mal zurück führen muss, wenn ein „Paketdowngrade“ von 2014 auf 2012 gewünscht ist? Wie so oft hält sich Microsoft hier an den legendären Ausspruch Erich Honeckers: „Vorwärts immer, rückwärts nimmer. (Stürmischer Beifall)“ lautet es in den Protokollen zu den Festansprachen zum 40. Jahrestag der DDR. Ein echtes Paketdowngrade wird von Hause aus nicht angeboten, ist aber über Umwege realisierbar!

PDW lässt Datenschaufler lächeln

BigData ist in aller Munde, aber tatsächlich rockt das PDW. Microsofts Parallel Datawarehouse, kurz PDW, ist ein riesiges, unglaublich schnelles Datenloch.

Wir sind ja durchaus große Serverinfrastrukturen gewohnt. Aber seit wir in unseren Projekten mit dem PDW zu tun haben, sieht man unsere ETLer (das sind diejenigen, die die Daten in das PDW schaufeln) mit einem kaum zu unterbindenden Grinsen im Gesicht herumlaufen.

pdw-geht-viel-rein

Automatisierung von XSL-Transformationen mit SSIS und Powershell bzw. MSXSL

Im Rahmen der Planung zum Einsatz eines Testwerkzeugs stellte sich uns in den letzten Tagen die Frage, wie XML-Dateien mit Testergebnissen möglichst automatisch auf Grundlage einer vorhandenen XSL-Datei zu anschaulicheren HTM-Dateien zu parsen sind. Da die Automatisierung möglichst über die bekannte Arbeitsumgebung ablaufen sollte, waren die Voraussetzungen daher zum einen, möglichst wenige Zusatzwerkzeuge installieren zu müssen, zum anderen nach Möglichkeit ein ETL-Paket zur Ausführung zu nutzen. Eine kurze Recherche grenzte die Wahl des Parse-Werkzeugs schnell auf die MSXSL.exe von Microsoft sowie ein Powershell-Skript ein. Andere Werkzeuge wie Saxon oder Oxygen erfüllten die Voraussetzungen nicht zu unserer Zufriedenheit.

Sonderzeichen in DTA Workload Files – "Die angegebene Eingabedatei kann nicht geöffnet werden"

Der Database Engine Tuning Advisor (kurz DTA, oder auch Datenbankoptimierungsratgeber…) ist bekanntlich ein durchaus praktisches Tool, um die Effektivität der Datenbankstrukturen mit Abfragen zu überprüfen und ggf. zu verbessern. Enthalten solche Abfragen jedoch “typisch europäische” Sonderzeichen wie ä, ö, ü, ß, á oder ô scheint der DTA selbst einen Ratschlag zu benötigen, denn er weiß nicht, wie ein Workload File mit solchen Abfragen zu öffnen ist.

Ermitteln der Measurenutzung in SQL Server Analysis Services

Business Intelligence Projekte erzeugen in der Regel einen oder mehrere Cubes. Jeder kennt die Problematik, dass es für den internen oder externen Kunden sehr schwierig ist seine Anforderungen derart zu abstrahieren, dass sich Measures im Vorfeld genau definieren lassen. Manchmal versteht der Kunde sogar erst während des Projektes, wie die Technologie wirklich funktioniert.
Die Folge: Anforderungen werden über den Haufen geworfen und das System wird an diversen stellen erweitert – sowohl noch im Projekt, als auch später durch die Wartung. Über die Jahre hinweg werden die Strukturen des Cubes immer komplexer. Doch wie ermittelt man, welche wirklich noch gebraucht werden?

Windows oder nicht Windows? Fenster-Funktionen in Transact-SQL

Der SQL Server beherrscht Fenster-Funktionen (Window Functions) mit der charakteristischen Syntax OVER … PARTITION BY schon seit der Version 2005, aber kaum jemand hat sie in der Praxis benutzt. Ein häufiger Grund dafür könnte sein, dass man auf keinen Fall SQL-Statements schreiben möchte, die nicht ANSI-SQL-kompatibel sind, damit man jederzeit den Datenbankserver wechseln kann. Nun gut, die Fenster-Funktionen wurden schon im ISO-Standard SQL:2003 erwähnt, und werden in SQL:2008 näher ausgeführt. Und mit SQL Server 2012 gibt es noch eine Reihe von SQL-Funktionen mehr, die man mit OVER benutzen kann; Grund genug, einen kurzen Blick darauf zu werfen!

Die Fenster-Funktionen unterstützen Konzepte, die die SQL-Sprache normalerweise nicht kennt, wie eine Reihenfolge, ein “vorher/nachher”, und vor allem eine Kombination von einem Detailwert mit einer Aggregation in einer Ergebniszeile! Im Normalfall hat man ja immer ein SELECT für die Detailzeilen und eins mit GROUP BY für die Aggregate; die Fenster-Funktionen können aber beides in derselben Abfrage. Das ist durchaus etwas, was man klassischerweise eher von einem OLAP-Cube erwartet, und die Window-Funktionen könnten durchaus in einigen Fällen eine Alternative sein!

Kerberos und SharePoint: Anleitung für die Trennung von Datenbank und Frontend mit Reporting Services und Performance Point Services

In einem früheren Beitrag wurde in unserem Blog bereits über die Installation eines SharePoint 2010 Foundation Servers  berichtet. Wer sich für für einen SharePoint 2010 Enterprise Server entscheidet, tut dies meistens um einen oder mehrere der zahlreichen dort enthaltenen Dienste zu nutzen. Wird die Installation etwas größer und eine Trennung der Dienste erforderlich, kann dem Administrator bei der Konfiguration der Sicherheit doch schon mal schnell der Kopf rauchen, denn Kerberos hat es in sich.

Gartner sieht Microsoft weiterhin vorn – Magic Quadrant veröffentlicht

Im jährlich erscheinenden „Magic Quadrant for Business Intelligence and Analytics Platforms“ bescheinigen die Analysten dem US-Konzern Bestnoten.

Microsoft bleibt auch 2012 das Maß aller Dinge, genau genommen im Bereich der Business Intelligence-Lösungen; darüber sind sich die Experten für Marktforschung und –analyse einig. Die kürzlich vom renommierten „Technology Researcher“ Gartner veröffentlichte Trendstudie „Magic Quadrant for Business Intelligence and Analytics Platforms“ setzt bereits im Titel zukunftsweisende Akzente, ist hier doch erstmalig „and Analytics“ dem Titel der Studie hinzugefügt worden. Gartner passt sich damit dem in ihrem Bericht identifizierten Trend aus 2012 an, einen gesteigerten Wert auf die vom Markt geforderten vorrausschauenden Analysefunktionen bei Business Intelligence-Lösungen zu legen. Neben der zunehmenden Bedeutung von Analysefunktionen sieht Gartner den Haupttrend für 2012 darin, dass das Thema „Data Discovery“ immer mehr Einzug in BI-Lösungen finden und Echtzeitaktivitäten eine größere Relevanz beigemessen werden.

Integration Services Fehler -1073741819

Neulich bin ich bei einem Kunden (SQL Server 2008 SP2) auf einen scheinbar nicht erklärbaren Fehler gestoßen.
Im Log des SQL Server Agents fand sich beim Versuch ein ETL-Paket auszuführen folgende Fehlermeldung:

Executed as user: DOMAINsqluser. The step did not generate any output.
The return value was unknown. The process exit code was -1073741819. The step failed.