Startseite » Architekturen
Schlagwort: Architekturen
-
#088 Wie sehen wir die Souveränität von Datenplattformen?
Souveränität statt Abhängigkeit: Warum wir jetzt über selbstbestimmte Plattformen sprechen müssen Die digitalen Möglichkeiten wachsen rasant. Von Managed Services bis "Everything-as-a-Service" liefern Hyperscaler unzählige Funktionen, die Entwicklungsteams und BI-Teams begeistern – gleichzeitig aber neue Abhängigkeiten schaffen. Wer heute eine moderne Plattform aufbaut, braucht mehr als nur technische Power: Gefragt ist ein klares Modell, das Portabilität, Flexibilität und Unabhängigkeit im Blick behält. Denn das "Schiff" der Plattform wird größer, komplexer – und wer nicht aufpasst, landet schneller als gedacht im Strudel der Anbieterabhängigkeit. Die Herausforderung: Innovation nutzen, ohne sich komplett von einem Hersteller oder System abhängig zu machen. Unternehmen und Teams müssen bewusst entscheiden, wo sie auf Services setzen – und wo sie lieber offen bleiben wollen. Nur so bleibt das Wechseln des Hafens – oder gar der ganzen Reederei – auch in Zukunft möglich. Wie sehen es Andreas und Marcus? Andreas und Marcus bringen verschiedene Perspektiven aus ihren BI- und Data-Engineering-Erfahrungen mit: Andreas betont die Balance zwischen Komfort und Kontrolle: Er liebt bewährte Tools, achtet aber auf mögliche Stolperfallen bei Web-Only-Angeboten und Funktionsunterschieden. Marcus setzt auf technische Portabilität: Mit Containern, offenen Formaten wie Parquet und einer Infrastruktur, die bei Bedarf den Anbieter wechseln kann. Ihr gemeinsames Ziel: ein flexibles, manövrierfähiges Plattform-Schiff, das Innovationen aufgreift, ohne die Kontrolle zu verlieren. Daraus haben sie drei praktische Tipps für den Nachhauseweg abgeleitet, oder? Warum Portabilität heute wichtiger denn je ist. Weshalb offene Formate und modulare Architekturen echte Lebensretter sein können. Und warum "alles online, alles überall" nicht immer der beste Weg sein muss. Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#086 Wie nutze ich Fabric einfach, kontrolliert und kosteneffizient?
In dieser Podcast-Episode diskutieren wir intensiv über Microsoft Fabric und die zentrale Frage: Ist Fabric tatsächlich das „Waschen ohne nass zu werden“ der BI-Welt? Früher hatten wir unsere eigenen Server, on Premises, individuell konfiguriert und sogar mit Namen versehen. Doch davon müssen wir uns langsam verabschieden. Die Zukunft gehört Plattformen, bei denen jeder Wunsch erfüllt wird – sei es Notebooks für Analysten, SQL-Datenbanken für Entwickler oder umfassendes Dateimanagement über integrierte Warehouse-Lösungen. Wir sprechen darüber, ob das ständig wachsende Angebot neuer Features tatsächlich hilft oder ob wir uns nicht doch lieber eine einfache, verlässliche Oberfläche wünschen, die „einfach funktioniert“. Denn nicht immer braucht man gleich eine Power BI Premium Lizenz – oder gar die leistungsstarke F64-Kapazität die auch gleich die KI-Features mitbringt. Dabei werfen wir auch einen Blick auf das Lakehouse-Konzept, das mit seinen Spark-Notebooks neue analytische Möglichkeiten bietet. Doch wann ist der richtige Moment, von traditionellen Lösungen auf ein Lakehouse zu wechseln? Vielleicht lautet die Antwort: „Dann gehe ich doch erstmal Richtung Lakehouse!“ Wir gehen auf die Vor- und Nachteile ein, wenn alles „in der Box“ verfügbar ist. Welche Erfahrungen machen Unternehmen und Analysten, wenn sie traditionelle Infrastrukturen verlassen und zu Fabric wechseln? Können Anforderungen wirklich flexibler und effizienter erfüllt werden oder führt die Fülle an Möglichkeiten eher zu Überforderung? Wie sehen Andreas und Marcus das Thema? Haben wir es hier mit einer echten Revolution im Datenmanagement zu tun oder ist es nur eine vorübergehende Entwicklung? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion • Kennt ihr noch eure Server „on Prem“ und gebt ihr ihnen immer noch Namen? • Wie seht ihr den Wandel von klassischen Server on Prem hin zu Cloud-Lösungen wie Fabric? • Glaubt ihr, dass Microsoft Fabric tatsächlich alle Bedürfnisse von Analysten und Entwicklern erfüllt? • Welche Erfahrungen habt ihr mit dem „Alles in der Box“-Ansatz gemacht, wo jedes Tool für Analysten und Entwickler direkt verfügbar ist? • Wann entscheidet ihr euch für eine Power BI Pro Lizenz oder sogar für eine F64-Kapazität – braucht man das immer? • Seid ihr schon auf dem Weg Richtung Lakehouse und wie sind eure Erfahrungen mit Spark-Notebooks? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#085 Wie kann ich mein Power BI automatisiert testen?
In dieser Podcast-Episode fokussieren wir uns auf das Thema automatisiertes Testing in Power BI-Projekten. Wir diskutieren, warum automatisierte Tests entscheidend sind, um eine hohe Datenqualität und Performance sicherzustellen, und wie sie professionell implementiert werden können. Besonderes Augenmerk liegt auf der Nutzung von Unit Tests und klar definierten Testfällen, um Kundenanforderungen zuverlässig abzubilden und Projektanforderungen effektiv zu dokumentieren. Wir sprechen auch darüber, warum es essenziell ist, dass Testverfahren gut dokumentiert sind und wie professionelle Entwicklungsprozesse dadurch unterstützt werden. Zudem gehen wir auf die Implementierung eines Regelwerks in dbt ein, das durch standardisierte Prozesse eine konsistente Datenverarbeitung sicherstellt. Welche Erfahrungen haben wir und andere Tester in diesem Bereich gemacht? Wie unterscheiden sich verschiedene Ansätze hinsichtlich Granularität, Performance und Qualität der Ergebnisse? Wie sehen Andreas und Marcus das Thema automatisiertes Testing? Welche Methoden haben sich bewährt und welche Auswirkungen hat eine professionelle Teststrategie auf BI-Projekte? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion: • Welche Methoden nutzt ihr für automatisiertes Testing in euren BI-Projekten? • Wie integriert ihr Unit Tests in eure Power BI-Modelle? • Wie dokumentiert ihr Testfälle und sorgt dafür, dass die Anforderungen der Kunden erfüllt werden? • Welche Erfahrungen habt ihr mit der Implementierung eines Regelwerks in dbt gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#082 Wie viele Daten passen in ein Power BI-Modell?
In dieser Podcast-Episode geht es um die Bedeutung von Datenmodellen in Power BI und ihre Auswirkungen auf die Performance und die Datenanalyse. Wir werfen einen genauen Blick auf die Rolle von Dimensionen und Granularität und erläutern, wie du diese effektiv einsetzt, um aussagekräftige Berichte zu erstellen und gleichzeitig die Performance deines Modells zu optimieren. Ein wichtiger Punkt ist die Trennung von Datum und Zeit. Es ist entscheidend, diese beiden Elemente klar zu differenzieren, um präzise Zeitreihenanalysen und effiziente Aggregationen zu ermöglichen. Doch bei all dem spielt auch die Datenmenge eine wichtige Rolle: Wie viele Felder und Zeilen können in Power BI verarbeitet werden, ohne dass die Performance leidet? Und wie beeinflusst die Datasetgröße die Ladegeschwindigkeit und Verarbeitung? Ein zusätzlicher Faktor: Alles, was du an Daten mitnimmst, kostet Performance. Der Italiener in mir sagt dazu: "It depends!" Es kommt darauf an, welche Daten du tatsächlich benötigst und wie gut du sie komprimierst. Gute Komprimierungsverfahren in Power BI können hierbei helfen, die Performance trotz großer Datenmengen auf einem hohen Niveau zu halten. Im Gespräch gehen wir auch auf die Bedeutung der Datenqualität und -güte ein. Denn ein solides Datenmodell ist nicht nur eine Frage der Struktur, sondern auch der Qualität der Daten, die du darin abbildest. Nur wenn deine Daten konsistent und vertrauenswürdig sind, kannst du daraus wertvolle, zuverlässige Analysen ableiten. Natürlich werfen wir auch einen Blick auf die unterschiedlichen Lizenzen in Power BI, die entscheidend dafür sind, welche Datenmengen und Verarbeitungsressourcen dir zur Verfügung stehen. Power BI Pro und Power BI Premium bieten unterschiedliche Kapazitäten, die je nach Umfang und Anforderungen deines Projekts eine Rolle spielen. Wie sehen es Andreas und Marcus? Können die eigenen Erfahrungen mit der Wahl des richtigen Modells und deren Anwendung helfen bei der Fragestellung? Haben wir unterschiedliche Herangehensweisen, die besonders gut funktionieren und was hat die Granularität und Qualität der Daten für eine Auswirkung? Macht es einen Unterschied in der Analyse wie man das Modell konzipiert? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet Ihr mit uns ins Gespräch kommen sind hier ein paar Fragen zur Diskussion • Was ist eure bevorzugte Methode zur Datenmodellierung in Power BI? • Wie geht ihr mit der Trennung von Datum und Zeit um und welche Granularität verwendet ihr in euren Modellen? • Welche Erfahrungen habt ihr mit der Handhabung von großen Datenmengen und der Wahl der passenden Lizenz gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#077 Welche Erfahrungen haben wir mit Direct Query gemacht?
Direct Query, Importmode und Power BI: Wie machen wir BI-Analysen smart? Effizienz, Flexibilität und Benutzerfreundlichkeit sind der Schlüssel für erfolgreiche BI-Projekte. Aber wie wichtig ist das passende Datenmodell wirklich? Und welche Rolle spielen DirectLake, Direct Query und Importmode bei der Umsetzung moderner Anforderungen? Direct Query in Power BI hebt Echtzeit-Datenmanagement auf ein neues Niveau: Daten bleiben in der Quelle, Dashboards sind immer up-to-date und Big Data wird spielend bewältigt – perfekt für dynamische, datenintensive Anwendungen. Features wie Query Folding steigern die Effizienz, indem Datenbankabfragen direkt optimiert werden. Doch wo liegen die Grenzen? Ist Direct Query wirklich der richtige Ansatz für jeden Use Case, oder gibt es Kompromisse bei Performance und Flexibilität? Sind die Vorteile von Direct Query ohne Einschränkungen zu haben und ist das für alle Anwendungsfälle der richtige Ansatz? Muss man hier möglichen Einschränkungen bei der Performance beachten? Freuen Sie sich auf die Praxis-Tipps von Andreas und Marcus! Erfahren Sie, wie Direct Query, Importmode, DirectLake und Power BI in echten Projekten genutzt werden. Wie optimiert man Datenstrukturen? Welche Herausforderungen gibt es, und wie lassen sich diese meistern? Dazu erwarten Sie drei knackige Key Takeaways, die Sie sofort in Ihrem nächsten Projekt einsetzen können. Das sollten Sie nicht verpassen – datengetriebene Insights, die wirklich zählen!
-
#075 Passen die Daten zu meiner Analyse?
Wir starten mit einer zentralen Frage: Wie wichtig ist das passende Datenmodell, um BI-Projekte erfolgreich umzusetzen? Besonders dann, wenn es darum geht, komplexe Produkt-/Kundenstrukturen zu analysieren, ohne Buchungsdaten zu verlieren, und trotzdem alle Infos für die Planung bereitzustellen. Wir werfen einen genauen Blick darauf, wie sich gezielt eingesetzten Kennzahlen, das Ausblenden irrelevanter Werte und die richtige Handhabung von Dimensionen und Filtern auswirken. Ist das Sternschema der perfekte Startpunkt: Es bietet eine klare und effiziente Struktur für schnelle Analysen und übersichtliche Berichte. Ideal für Szenarien, in denen Fakten und Dimensionen in klaren Beziehungen zueinanderstehen. Das Snowflake-Schema hingegen liefert eine detailliertere, normalisierte Struktur, die in komplexen Datenlandschaften glänzt und auch dann tiefgehende Analysen ermöglicht, wenn Kundendaten im BI fehlen. Aber aufgepasst – verlieren wir den Kunden durch diese Komplexität vielleicht schon im Projekt? Wir diskutieren außerdem, wie ein durchdachtes Datenmodell die User Experience massiv verbessern kann: Wichtiges wird hervorgehoben, Überflüssiges ausgeblendet. So entsteht ein klarer und intuitiver Überblick, der dir die Basis für fundierte Entscheidungen bietet. Freu dich auf spannende Insights von Andreas und Marcus, die von ihren Erfahrungen mit Power BI erzählen. Sie teilen ihre besten Tipps zur Optimierung von Strukturen- und Umsatzzahlen sowie zur Auswahl passender Dimensionen und Filter für eine optimale User Experience. Und wie immer gibt’s die drei Key Takeaways für den Nachhauseweg! Wie sieht eure beste Methode zur Datenmodellierung und Optimierung der User Experience in Power BI aus? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und eure besten Tipps.
-
#074 Wie kombiniert man Power BI mit AI? Gast: Diana Ackermann
In dieser Podcast-Episode geht es darum, wie Power BI als mächtiges Werkzeug für AI-gestützte Analysen und maschinelles Lernen eingesetzt werden kann. Ursprünglich oft als reines ETL- und Reporting-Tool gesehen, hat sich Power BI inzwischen stark weiterentwickelt. Wir beleuchten die Frage: Wie kombiniere ich Power BI mit AI, um tiefere Einblicke zu gewinnen? Ein zentraler Aspekt dieser Entwicklung ist die Integration von Azure Machine Learning. Mithilfe dieser Plattform können Benutzer AI-Modelle erstellen und direkt in ihre Berichte und Dashboards integrieren. Wir diskutieren, wie Azure ML dir dabei helfen kann, prädiktive Analysen durchzuführen und Muster in deinen Daten zu erkennen, die sonst verborgen geblieben wären. Natürlich ist auch Datenqualität ein entscheidender Faktor. Denn nur mit sauberen und konsistenten Daten lassen sich aussagekräftige AI-Modelle erstellen. Wir diskutieren, wie Power BI-Tools zur Datenbereinigung und -transformation genutzt werden können, um sicherzustellen, dass deine Daten für AI-Analysen optimal vorbereitet sind. Außerdem sprechen wir darüber, wie Power BI als Reporting-Tool angefangen hat und sich jetzt zu einer umfassenden Plattform für Business Intelligence und maschinelles Lernen entwickelt hat. Das Zusammenspiel von Power BI und Azure ML ermöglicht es, in Echtzeit fundierte Entscheidungen zu treffen und Geschäftsprozesse zu optimieren. Freut euch auf interessante Einblicke, wie Diana, Andreas und Marcus ihre Erfahrungen mit der Integration von AI in Power BI teilen. Sie erklären, welche Vorteile dies für den BI-Alltag hat und wie es ihnen geholfen hat, noch bessere und präzisere Ergebnisse zu erzielen. Und wie immer gibt es die drei Dinge für den Nachhauseweg! Was sind eure Erfahrungen mit AI und Power BI? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen
-
#073 Wie wichtig ist das Datenmodell?
In dieser Podcast-Episode dreht sich alles um die Bedeutung von Datenmodellen in Power BI. Wir starten mit der Frage: Wie wichtig ist das richtige Datenmodell für den Erfolg in BI-Projekten? Dabei werfen wir einen genauen Blick auf das Sternschema und das Snowflake-Schema – zwei der bekanntesten Ansätze zur Datenmodellierung. Das Sternschema bietet eine einfache und effiziente Möglichkeit, Daten zu organisieren, sodass Analysen und Berichte schnell und übersichtlich erstellt werden können. Es eignet sich perfekt für Szenarien mit klaren Beziehungen zwischen Fakten- und Dimensionstabellen. Im Gegensatz dazu bietet das Snowflake-Schema eine detailliertere und normalisierte Struktur, die besonders in komplexeren Datenlandschaften glänzt. Wir besprechen auch die Rolle von Dimensionen in diesen Modellen. Sie sind der Schlüssel zu flexiblen und aussagekräftigen Berichten, da sie uns ermöglichen, Daten aus verschiedenen Blickwinkeln zu analysieren. Ein gutes Verständnis von Dimensionen und deren Einsatz in den beiden Modelltypen ist entscheidend, um das Beste aus Power BI herauszuholen. Natürlich darf auch das Thema Datenqualität nicht fehlen! Ein solides Datenmodell ist die Grundlage für vertrauenswürdige Analysen. Wir diskutieren, wie die Wahl des richtigen Modells dazu beitragen kann, dass deine Daten sauber und konsistent bleiben. Freut euch auf spannende Einsichten, wie Andreas und Marcus im Gespräch über ihre eigenen Erfahrungen mit Datenmodellen in Power BI berichten. Sie teilen bewährte Praktiken, wann welches Schema am besten geeignet ist und wie Dimensionen dabei helfen, tiefer in die Datenanalyse einzutauchen. Wie immer gibt es die drei Dinge für den Nachhauseweg! Was ist eure bevorzugte Methode zur Datenmodellierung? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen.
-
#70 Wie bekommen wir die Daten sauber in unser BI-System?
In den letzten zehn Folgen haben wir uns mit zentralen Themen der Business Intelligence (BI) beschäftigt. Dazu gehörten die Trennung von Datenmodell und Visualisierung sowie die Einführung neuer Funktionen wie Direct Lake. Wir haben auch die Frage erörtert, ob Excel nach wie vor das beste BI-Werkzeug ist. Zudem haben wir diskutiert, ob es sinnvoller ist, BI-Lösungen zu kaufen oder selbst zu entwickeln, wie sich die Kosten für BI steuern lassen und ob es von Vorteil ist, ein Projekt aus einer Hand zu realisieren. Weitere Schwerpunkte waren die Quellen für Expertisen, das Verständnis von Datenprodukten und die Rolle von dbt. Wir haben uns auch damit beschäftigt, ob jeder die DAX-Sprache in Power BI beherrschen sollte. Ist jetzt noch Zeit für ein neues Thema? Nach diesem umfassenden Rückblick stellt sich die Frage, ob noch Raum für ein neues Thema bleibt. Die Antwort ist ein klares Ja. Um Daten sauber in ein BI-System zu integrieren, müssen mehrere Herausforderungen gemeistert werden. Eine der ersten Aufgaben besteht darin, die Datenlage zu bereinigen, indem überflüssige Informationen identifiziert und eliminiert werden. Dabei stellt sich die Frage, wie detailliert die Daten tatsächlich sein müssen, um wertvolle Erkenntnisse zu liefern, ohne das System zu überlasten. Die Wahl der richtigen Systeme spielt eine zentrale Rolle, da sie die Grundlage für eine nahtlose Datenintegration bilden. Verschiedene Datenstrukturen stellen dabei eine besondere Herausforderung dar, da sie harmonisiert werden müssen, um ein einheitliches und verwertbares Gesamtbild zu erzeugen. Bei der Einführung eines neuen Systems ist es entscheidend, die Altdatenübernahme sorgfältig zu planen, damit bestehende Informationen verlustfrei und korrekt in die neue Umgebung überführt werden können. All diese Aspekte tragen dazu bei, dass das BI-System sauber und effizient arbeitet, was die Grundlage für fundierte geschäftliche Entscheidungen bildet. Wie sehen es Andreas und Marcus? Sind wir derselben Meinung oder haben wir unterschiedliche Ansichten? Welche Erfahrungen haben wir in unseren BI-Projekten mit Datenaufbereitung und Bereitstellung gemacht? Gibt es unterschiedliche Herangehensweisen an das Thema? Hört mal rein was wir zu sagen haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#069 Muss in Power BI jeder DAX können?
Die Notwendigkeit, dass jeder in Power BI DAX beherrschen muss, hängt stark von der Struktur und den Anforderungen des jeweiligen Teams und Projekts ab. Während ein grundlegendes Verständnis von DAX für viele Teammitglieder nützlich sein kann, sind tiefergehende Kenntnisse vor allem für spezialisierte Rollen wie Datenanalysten und Datenmodellierer essenziell. Eine ausgewogene Verteilung der DAX-Kompetenzen und eine klare Rollenverteilung können die Effizienz und Qualität der Arbeit in Power BI-Projekten erheblich steigern. Letztlich sollte jede Organisation eine auf ihre spezifischen Bedürfnisse zugeschnittene Schulungs- und Kompetenzstrategie entwickeln. Argumente dafür: • Flexibilität und Unabhängigkeit: Alle Teammitglieder können selbständig arbeiten. • Bessere Zusammenarbeit: Gemeinsames Verständnis erleichtert die Kommunikation. • Effiziente Problemlösung: Schnellere Anpassungen und Fehlerbehebungen. • Höhere Qualität: Korrekte und optimierte Berechnungen durch das gesamte Team. Argumente dagegen: • Spezialisierung: Datenanalysten übernehmen komplexe Berechnungen, während andere sich auf ihre Kernkompetenzen konzentrieren. • Komplexität: DAX erfordert viel Lernaufwand, denn nicht jeder aufbringen kann oder möchte. • Ressourcenmanagement: Schulung aller Mitarbeiter kann teuer und zeitaufwendig sein. • Werkzeugvielfalt: Viele Power BI-Funktionen sind auch ohne tiefgehende DAX-Kenntnisse nutzbar. Nicht jeder muss DAX beherrschen. Während grundlegende Kenntnisse für viele hilfreich sind, sollten tiefergehende Fähigkeiten auf spezialisierte Rollen beschränkt bleiben. Eine ausgewogene Verteilung der DAX-Kompetenzen steigert die Effizienz und Qualität der Arbeit in Power BI-Projekten. Wie sehen es Andreas und Marcus? Sind sie derselben Meinung oder haben sie unterschiedliche Ansichten? Welche Erfahrungen haben sie in ihren BI-Projekten mit Power BI und DAX gemacht? Oder gibt es Bereiche, in denen sie unterschiedliche Meinungen haben? Natürlich gibt es auch wieder drei interessante Takeaways für euch!