Neueste Podcast Beiträge
-
#088 Wie sehen wir die Souveränität von Datenplattformen?
Souveränität statt Abhängigkeit: Warum wir jetzt über selbstbestimmte Plattformen sprechen müssen Die digitalen Möglichkeiten wachsen rasant. Von Managed Services bis "Everything-as-a-Service" liefern Hyperscaler unzählige Funktionen, die Entwicklungsteams und BI-Teams begeistern – gleichzeitig aber neue Abhängigkeiten schaffen. Wer heute eine moderne Plattform aufbaut, braucht mehr als nur technische Power: Gefragt ist ein klares Modell, das Portabilität, Flexibilität und Unabhängigkeit im Blick behält. Denn das "Schiff" der Plattform wird größer, komplexer – und wer nicht aufpasst, landet schneller als gedacht im Strudel der Anbieterabhängigkeit. Die Herausforderung: Innovation nutzen, ohne sich komplett von einem Hersteller oder System abhängig zu machen. Unternehmen und Teams müssen bewusst entscheiden, wo sie auf Services setzen – und wo sie lieber offen bleiben wollen. Nur so bleibt das Wechseln des Hafens – oder gar der ganzen Reederei – auch in Zukunft möglich. Wie sehen es Andreas und Marcus? Andreas und Marcus bringen verschiedene Perspektiven aus ihren BI- und Data-Engineering-Erfahrungen mit: Andreas betont die Balance zwischen Komfort und Kontrolle: Er liebt bewährte Tools, achtet aber auf mögliche Stolperfallen bei Web-Only-Angeboten und Funktionsunterschieden. Marcus setzt auf technische Portabilität: Mit Containern, offenen Formaten wie Parquet und einer Infrastruktur, die bei Bedarf den Anbieter wechseln kann. Ihr gemeinsames Ziel: ein flexibles, manövrierfähiges Plattform-Schiff, das Innovationen aufgreift, ohne die Kontrolle zu verlieren. Daraus haben sie drei praktische Tipps für den Nachhauseweg abgeleitet, oder? Warum Portabilität heute wichtiger denn je ist. Weshalb offene Formate und modulare Architekturen echte Lebensretter sein können. Und warum "alles online, alles überall" nicht immer der beste Weg sein muss. Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#087 Was waren unsere FabCon Highlights?
icrosoft Fabric ermöglicht jetzt KI-Features bereits in kleineren Kapazitäten – aber wie sinnvoll sind diese Features im echten Arbeitsalltag? Wir hinterfragen kritisch, ob die Umbenennung der „KI Skills“ in „Agents“ einen echten Mehrwert bietet und warum das Timing kurz vor dem 1. April möglicherweise etwas unglücklich war. Weitere Themen sind der Copilot, der eigenständig innerhalb des Teams mit relevanten Daten antwortet, sowie der Überspannungsschutz, der unbemerkt im Hintergrund agiert. Wir diskutieren, wie Autoscaling für Spark effizient Ressourcen bereitstellt und Kosten optimiert. Besonderes Augenmerk legen wir auf die Sicherheitsaspekte von OneLake Security: Welche Schutzmechanismen bietet Microsoft Fabric, um sensible Unternehmensdaten sicher zu speichern? Kann Fabric durch fein abgestufte Berechtigungen überzeugen und welche Herausforderungen lassen sich dadurch effektiv meistern? Zudem werfen wir einen Blick auf praktische Neuerungen wie den COPY Job, der nun die passenden Features in Fabric-Pipelines bringt, die Einsatzmöglichkeiten von User Defined Functions und die Integration mit Git. Wir sprechen außerdem darüber, ob die Vielzahl der Konferenzen wirklich dabei hilft, Neuerungen gezielt zu vermitteln oder ob weniger manchmal mehr ist. Nicht zuletzt diskutieren wir den immer relevanten Konflikt: Setzen wir lieber auf individuelle Freiheit in der Datenanalyse oder bevorzugen wir standardisierten Business Content „von der Stange“? Ganz nebenbei erinnern wir uns daran, dass schon die Italiener vor Jahrhunderten die Buchhaltung erfunden haben. Wie immer gibt es drei praktische Tipps für den Nachhauseweg oder machen wir es diesmal anders? Wir freuen uns auf eure Meinung zu diesen Themen: Welche Highlights von der FabCon waren für euch besonders relevant? Wie bewertet ihr die Nützlichkeit der KI-Features in kleinen Kapazitäten? Sind die neuen „Agents“ wirklich eine Verbesserung? Wie setzt ihr Copilot, Autoscaling oder Git Integration praktisch ein? Wie zufrieden seid ihr mit der OneLake-Security? Bevorzugt ihr eher freie, flexible Lösungen oder Business Content von der Stange? War der Release-Termin kurz vor dem 1. April clever gewählt? Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#086 Wie nutze ich Fabric einfach, kontrolliert und kosteneffizient?
In dieser Podcast-Episode diskutieren wir intensiv über Microsoft Fabric und die zentrale Frage: Ist Fabric tatsächlich das „Waschen ohne nass zu werden“ der BI-Welt? Früher hatten wir unsere eigenen Server, on Premises, individuell konfiguriert und sogar mit Namen versehen. Doch davon müssen wir uns langsam verabschieden. Die Zukunft gehört Plattformen, bei denen jeder Wunsch erfüllt wird – sei es Notebooks für Analysten, SQL-Datenbanken für Entwickler oder umfassendes Dateimanagement über integrierte Warehouse-Lösungen. Wir sprechen darüber, ob das ständig wachsende Angebot neuer Features tatsächlich hilft oder ob wir uns nicht doch lieber eine einfache, verlässliche Oberfläche wünschen, die „einfach funktioniert“. Denn nicht immer braucht man gleich eine Power BI Premium Lizenz – oder gar die leistungsstarke F64-Kapazität die auch gleich die KI-Features mitbringt. Dabei werfen wir auch einen Blick auf das Lakehouse-Konzept, das mit seinen Spark-Notebooks neue analytische Möglichkeiten bietet. Doch wann ist der richtige Moment, von traditionellen Lösungen auf ein Lakehouse zu wechseln? Vielleicht lautet die Antwort: „Dann gehe ich doch erstmal Richtung Lakehouse!“ Wir gehen auf die Vor- und Nachteile ein, wenn alles „in der Box“ verfügbar ist. Welche Erfahrungen machen Unternehmen und Analysten, wenn sie traditionelle Infrastrukturen verlassen und zu Fabric wechseln? Können Anforderungen wirklich flexibler und effizienter erfüllt werden oder führt die Fülle an Möglichkeiten eher zu Überforderung? Wie sehen Andreas und Marcus das Thema? Haben wir es hier mit einer echten Revolution im Datenmanagement zu tun oder ist es nur eine vorübergehende Entwicklung? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion • Kennt ihr noch eure Server „on Prem“ und gebt ihr ihnen immer noch Namen? • Wie seht ihr den Wandel von klassischen Server on Prem hin zu Cloud-Lösungen wie Fabric? • Glaubt ihr, dass Microsoft Fabric tatsächlich alle Bedürfnisse von Analysten und Entwicklern erfüllt? • Welche Erfahrungen habt ihr mit dem „Alles in der Box“-Ansatz gemacht, wo jedes Tool für Analysten und Entwickler direkt verfügbar ist? • Wann entscheidet ihr euch für eine Power BI Pro Lizenz oder sogar für eine F64-Kapazität – braucht man das immer? • Seid ihr schon auf dem Weg Richtung Lakehouse und wie sind eure Erfahrungen mit Spark-Notebooks? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#085 Wie kann ich mein Power BI automatisiert testen?
In dieser Podcast-Episode fokussieren wir uns auf das Thema automatisiertes Testing in Power BI-Projekten. Wir diskutieren, warum automatisierte Tests entscheidend sind, um eine hohe Datenqualität und Performance sicherzustellen, und wie sie professionell implementiert werden können. Besonderes Augenmerk liegt auf der Nutzung von Unit Tests und klar definierten Testfällen, um Kundenanforderungen zuverlässig abzubilden und Projektanforderungen effektiv zu dokumentieren. Wir sprechen auch darüber, warum es essenziell ist, dass Testverfahren gut dokumentiert sind und wie professionelle Entwicklungsprozesse dadurch unterstützt werden. Zudem gehen wir auf die Implementierung eines Regelwerks in dbt ein, das durch standardisierte Prozesse eine konsistente Datenverarbeitung sicherstellt. Welche Erfahrungen haben wir und andere Tester in diesem Bereich gemacht? Wie unterscheiden sich verschiedene Ansätze hinsichtlich Granularität, Performance und Qualität der Ergebnisse? Wie sehen Andreas und Marcus das Thema automatisiertes Testing? Welche Methoden haben sich bewährt und welche Auswirkungen hat eine professionelle Teststrategie auf BI-Projekte? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion: • Welche Methoden nutzt ihr für automatisiertes Testing in euren BI-Projekten? • Wie integriert ihr Unit Tests in eure Power BI-Modelle? • Wie dokumentiert ihr Testfälle und sorgt dafür, dass die Anforderungen der Kunden erfüllt werden? • Welche Erfahrungen habt ihr mit der Implementierung eines Regelwerks in dbt gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#084 Wie viel Trennung zwischen Dev und Prod in Power BI? Gast:Ulrik Harnisch
Power BI ermöglicht schnelle Analysen und flexible Berichte – doch wo liegt die Grenze zwischen Self-Service und professioneller BI-Entwicklung? Marcus und Ulrik diskutieren, ob getrennte Entwicklungs-, Test- und Produktivumgebungen in Power BI wirklich notwendig sind oder ob sie den Prozess unnötig verkomplizieren. Die zentrale Frage: Wie lassen sich schnelle Anpassungen ohne Risiko umsetzen? Während im klassischen Software-Development klare Strukturen existieren, setzen viele Unternehmen in Power BI immer noch auf spontane Änderungen direkt in der Produktionsumgebung. Doch was passiert, wenn kleine Anpassungen unerwartet große Auswirkungen haben? Wir beleuchten Best Practices zur Versionierung, die Herausforderungen beim Deployment und mögliche Automatisierungen, um den Entwicklungsprozess effizienter zu gestalten. Außerdem klären wir, ob Power BI sich noch im reinen Self-Service bewegt oder bereits professionelle Entwicklungsstandards benötigt. Wie sehen es Marcus und Ulrik? Sind sie sich einig oder haben sie unterschiedliche Perspektiven? Welche Erfahrungen haben sie in Projekten gemacht? Gibt es eine goldene Mitte zwischen Kontrolle und Flexibilität? Hört rein, um die Antwort zu finden! Natürlich gibt es auch wieder drei spannende Takeaways für euch!
-
#083 Welche Hürden gibt es in BI-Projekten? Gast: Sarah Ehrmayr
BI-Projekte sind oft mit Herausforderungen wie schlechter Datenqualität, unrealistischen Erwartungen und fehlenden Standards verbunden. In dieser Episode sprechen wir mit unserem Gast Sarah über genau diese Stolpersteine und beleuchten, wie Unternehmen sie erfolgreich überwinden können. Dabei gibt sie spannende Einblicke in ihre Arbeit im digitalen Marketing und der Datenanalyse und zeigt auf, warum insbesondere in der Anfangsphase von BI-Projekten ein klares Erwartungsmanagement und definierte Standards in der Datenverarbeitung entscheidend sind. Sie bringt spannende Einblicke aus dem digitalen Marketing mit und spricht über die Rolle von Automation Tools in der Datenanalyse. Wir sprechen über die Schwierigkeiten, die entstehen, wenn Unternehmen sich auf Standardlösungen verlassen und erst später merken, dass diese nicht alle wichtigen Fragen beantworten können. Diese versprechen umfassende Reportingmöglichkeiten, stoßen jedoch schnell an ihre Grenzen, wenn es um individuelle Fragestellungen geht. Genau hier kommt Power BI ins Spiel: Welche Vorteile bietet das Tool gegenüber Standardlösungen? Was muss man beachten? Welche Vorteile bietet das Tool gegenüber Standardlösungen im Marketing? Wir diskutieren, welche Best Practices es für die Modellierung und Visualisierung gibt, um aussagekräftige Analysen zu erstellen. Dabei geht es auch darum, welche Funktionen von Power BI Unternehmen helfen können, Daten sinnvoll zu aggregieren und Entscheidungen datengetrieben zu treffen. Oft fehlt eine enge Zusammenarbeit über Fachteams hinaus, was dazu führt, dass wertvolle Daten nicht effizient genutzt werden. Wie können Unternehmen sicherstellen, dass alle Beteiligten an einem Strang ziehen? Welche Rolle spielen Controlling und Datenschutz in diesem Prozess? Welche Erfahrungen haben Sarah, Andreas und Marcus mit der Wahl des richtigen BI-Modells gemacht. Wie hat sich sich deren Anwendung in der Praxis bewährt? Haben sich unterschiedliche Herangehensweisen als besonders effektiv erwiesen? Sind alle drei einer Meinung, oder gibt es hier unterschiedliche Sichtweisen? Zum Abschluss gibt heute Sarah drei wertvolle Tipps für den erfolgreichen Umgang mit BI-Projekten: 1. Einfach mal anfangen und nicht zu lange zögern. 2. Projekte in kleine Schritte aufteilen, um den Veränderungsschmerz zu reduzieren. 3. Sich von Anfang an bewusst machen, warum man etwas tut, und die dahinterstehenden Prozesse verstehen. Möchtet Ihr mit uns ins Gespräch kommen? Hier sind einige Fragen zur Diskussion: • Wie geht ihr mit der Erwartungshaltung eurer Kunden in BI-Projekten um? • Welche Erfahrungen habt ihr mit der Zusammenarbeit zwischen Marketing, Sales und Controlling gemacht? • Wie handhabt ihr die Problematik rund um Datenqualität und Automatisierungsfehler? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#082 Wie viele Daten passen in ein Power BI-Modell?
In dieser Podcast-Episode geht es um die Bedeutung von Datenmodellen in Power BI und ihre Auswirkungen auf die Performance und die Datenanalyse. Wir werfen einen genauen Blick auf die Rolle von Dimensionen und Granularität und erläutern, wie du diese effektiv einsetzt, um aussagekräftige Berichte zu erstellen und gleichzeitig die Performance deines Modells zu optimieren. Ein wichtiger Punkt ist die Trennung von Datum und Zeit. Es ist entscheidend, diese beiden Elemente klar zu differenzieren, um präzise Zeitreihenanalysen und effiziente Aggregationen zu ermöglichen. Doch bei all dem spielt auch die Datenmenge eine wichtige Rolle: Wie viele Felder und Zeilen können in Power BI verarbeitet werden, ohne dass die Performance leidet? Und wie beeinflusst die Datasetgröße die Ladegeschwindigkeit und Verarbeitung? Ein zusätzlicher Faktor: Alles, was du an Daten mitnimmst, kostet Performance. Der Italiener in mir sagt dazu: "It depends!" Es kommt darauf an, welche Daten du tatsächlich benötigst und wie gut du sie komprimierst. Gute Komprimierungsverfahren in Power BI können hierbei helfen, die Performance trotz großer Datenmengen auf einem hohen Niveau zu halten. Im Gespräch gehen wir auch auf die Bedeutung der Datenqualität und -güte ein. Denn ein solides Datenmodell ist nicht nur eine Frage der Struktur, sondern auch der Qualität der Daten, die du darin abbildest. Nur wenn deine Daten konsistent und vertrauenswürdig sind, kannst du daraus wertvolle, zuverlässige Analysen ableiten. Natürlich werfen wir auch einen Blick auf die unterschiedlichen Lizenzen in Power BI, die entscheidend dafür sind, welche Datenmengen und Verarbeitungsressourcen dir zur Verfügung stehen. Power BI Pro und Power BI Premium bieten unterschiedliche Kapazitäten, die je nach Umfang und Anforderungen deines Projekts eine Rolle spielen. Wie sehen es Andreas und Marcus? Können die eigenen Erfahrungen mit der Wahl des richtigen Modells und deren Anwendung helfen bei der Fragestellung? Haben wir unterschiedliche Herangehensweisen, die besonders gut funktionieren und was hat die Granularität und Qualität der Daten für eine Auswirkung? Macht es einen Unterschied in der Analyse wie man das Modell konzipiert? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet Ihr mit uns ins Gespräch kommen sind hier ein paar Fragen zur Diskussion • Was ist eure bevorzugte Methode zur Datenmodellierung in Power BI? • Wie geht ihr mit der Trennung von Datum und Zeit um und welche Granularität verwendet ihr in euren Modellen? • Welche Erfahrungen habt ihr mit der Handhabung von großen Datenmengen und der Wahl der passenden Lizenz gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#081 Wird Power BI immer komplexer?
Power BI entwickelt sich in rasantem Tempo weiter und wird zunehmend anspruchsvoller. Ständig werden neue Funktionen und Features hinzugefügt, die das Tool leistungsfähiger machen, jedoch auch neue Herausforderungen mit sich bringen: Wie lassen sich diese Neuerungen einfach und effizient nutzen? Zudem rücken immer mehr Themen in den Fokus, die über den ursprünglichen Zweck von Power BI hinausgehen. Diese Entwicklung wirft die Frage auf, ob wir es noch mit Power BI zu tun haben oder bereits in „Fabric“ unterwegs sind. Das „Schiff“ wächst und wird umfangreicher – doch wie bleibt es steuerbar? Die zusätzlichen Möglichkeiten machen Power BI zu einem vielseitigen Werkzeug, doch mit der wachsenden Komplexität steigt auch das Risiko, den Überblick zu verlieren. Es erfordert eine durchdachte Herangehensweise, um die Plattform optimal zu nutzen. Dabei ist es entscheidend, die Kernfunktionen gezielt einzusetzen und sich nicht in weniger relevanten Randthemen zu verzetteln. Nur so können Nutzer von den stetigen Innovationen profitieren, ohne von der Dynamik überfordert zu werden. Wie sehen es Andreas und Marcus? Andreas und Marcus diskutieren, ob sie derselben Meinung sind oder unterschiedliche Perspektiven vertreten. Welche Erfahrungen haben sie in ihren BI-Projekten gemacht? Wie gehen sie mit der wachsenden Komplexität und neuen Features um? Gibt es unterschiedliche Herangehensweisen, um das „Schiff“ auf Kurs zu halten und welche Lösungsansätze haben wir für euch? Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#080 Wie fördern Mobile Reports die Datendemokratisierung?
n den letzten zehn Folgen haben wir zentrale BI-Themen behandelt, wie die Integration sauberer Daten, die Bedeutung des Datenmodells und den Aufbau einer BI-Community. Wir sprachen über Power BI, unsere Lieblingsfunktionen und die Nutzung von KI, sowie über Datenqualität und Anforderungen im Zeitalter der KI. Zudem teilten wir Erfahrungen mit Direct Query und diskutierten, wie wir mit Veränderungen umgehen und welche Erwartungen wir für das neue Jahr haben. Ist jetzt noch Zeit für ein neues Thema? Nach diesem umfassenden Rückblick stellt sich die Frage, ob noch Raum für ein neues Thema bleibt. Die Antwort ist ein klares Ja. Datendemokratisierung: Wie fördern Mobile Reports die Datendemokratisierung? Ein zentrales Thema, das wir nicht außer Acht lassen dürfen, ist die Datendemokratisierung. Wie können wir sicherstellen, dass alle Mitarbeiter, unabhängig von ihrer technischen Expertise, Zugang zu den richtigen Daten haben? Ziel ist es, eine Kultur zu schaffen, in der jeder – vom CEO bis zum operativen Mitarbeiter – die Möglichkeit hat, fundierte, datengetriebene Entscheidungen zu treffen. Sind unsere BI-Systeme so aufgebaut, dass sie eine breite Nutzergruppe ansprechen, vom Power-User bis hin zum weniger technisch versierten Anwender? Es ist entscheidend, eine Kultur der Datentransparenz zu etablieren. Alle Mitarbeitende erhalten Zugang zu den Informationen, die sie für ihre Arbeit benötigen, und können Entscheidungen nachvollziehbar und transparent treffen. So wird Vertrauen in die Daten aufgebaut und die Zusammenarbeit im Unternehmen gefördert. Mobile Reports spielen eine Schlüsselrolle in der Datendemokratisierung, indem sie es einer breiten Benutzergruppe ermöglichen, Daten in Echtzeit und auf mobilen Geräten zuzugreifen. Diese Berichte fördern eine breitere Nutzung von Daten, indem sie nicht nur den traditionellen Power-Usern zugänglich gemacht werden, sondern auch den weniger technisch versierten Nutzern die Möglichkeit geben, fundierte Entscheidungen zu treffen. Indem Unternehmen den Zugang zu Daten über Mobile Reports erweitern, fördern sie eine Kultur der Datentransparenz und -verfügbarkeit, die für die Datendemokratisierung unerlässlich ist. Wie sehen es Andreas und Marcus? Sind wir derselben Meinung oder haben wir unterschiedliche Ansichten? Welche Erfahrungen haben wir in unseren BI-Projekten gemacht? Gibt es unterschiedliche Herangehensweisen an das Thema? Hört mal rein, was wir zu sagen haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#079 Was sind unsere Wünsche und Erwartungen für das neue Jahr?
In dieser Episode tauchen wir tief ein in die prägenden Trends von 2024 und reflektieren, wie sie unseren Projektalltag beeinflusst haben. Von Datenqualität, Datenkultur, Data Literacy bis hin zu Data Governance – welche Themen haben uns wirklich vorangebracht? Und wie haben Berechtigungen und Zugriffe das „BI-Haus“ mitgestaltet? Natürlich sprechen wir auch über die Technologien, die das Jahr geprägt haben: Kapazitätsmetriken und deren Rolle in skalierbaren BI-Projekten. Bereitstellungspipelines und wie sie für effiziente Prozesse sorgen. Ordnerstrukturen, die Übersichtlichkeit und Organisation fördern. Einen Ausblick auf die neuen Features für Fabric in 2025 – was erwartet uns in der Zukunft? Die KI-Entwicklung war ein weiteres heißes Thema: Copilot steht sinnbildlich für die Verschmelzung von KI mit den Microsoft-Produkten – Hype oder echter Game-Changer für Self-Service-Analysen, Data Warehouse-Modernisierung und Entscheidungsintelligenz? Im typischen „The Data Brothers“-Stil vergleichen wir diese Trends mit unseren Projekterfahrungen aus 2024 und verraten euch, welche Themen uns besonders im Kundenumfeld begegnet sind. Gibt es eine klare Richtung oder bleibt alles so individuell wie ein maßgeschneiderter Anzug? Zum Abschluss wagen wir den Blick nach vorne: Unsere Wünsche und Erwartungen für 2025– was steht auf unserer Agenda? Welche Trends begleiten uns weiter, und welche Themen könnten neu aufkommen? Freut euch auf spannende Insights, Geschichten aus Kundenprojekten und die drei wichtigsten Dinge, die ihr für eure BI-Reise ins neue Jahr mitnehmen könnt. Hört rein, wenn Andreas und Marcus erzählen, was 2024 gebracht hat, und was wir gemeinsam aus 2025 machen können. Jetzt reinhören und bestens vorbereitet ins neue Jahr starten!