Startseite » Data » Seite 2
Schlagwort: Data
-
#084 Wie viel Trennung zwischen Dev und Prod in Power BI? Gast:Ulrik Harnisch
Power BI ermöglicht schnelle Analysen und flexible Berichte – doch wo liegt die Grenze zwischen Self-Service und professioneller BI-Entwicklung? Marcus und Ulrik diskutieren, ob getrennte Entwicklungs-, Test- und Produktivumgebungen in Power BI wirklich notwendig sind oder ob sie den Prozess unnötig verkomplizieren. Die zentrale Frage: Wie lassen sich schnelle Anpassungen ohne Risiko umsetzen? Während im klassischen Software-Development klare Strukturen existieren, setzen viele Unternehmen in Power BI immer noch auf spontane Änderungen direkt in der Produktionsumgebung. Doch was passiert, wenn kleine Anpassungen unerwartet große Auswirkungen haben? Wir beleuchten Best Practices zur Versionierung, die Herausforderungen beim Deployment und mögliche Automatisierungen, um den Entwicklungsprozess effizienter zu gestalten. Außerdem klären wir, ob Power BI sich noch im reinen Self-Service bewegt oder bereits professionelle Entwicklungsstandards benötigt. Wie sehen es Marcus und Ulrik? Sind sie sich einig oder haben sie unterschiedliche Perspektiven? Welche Erfahrungen haben sie in Projekten gemacht? Gibt es eine goldene Mitte zwischen Kontrolle und Flexibilität? Hört rein, um die Antwort zu finden! Natürlich gibt es auch wieder drei spannende Takeaways für euch!
-
#083 Welche Hürden gibt es in BI-Projekten? Gast: Sarah Ehrmayr
BI-Projekte sind oft mit Herausforderungen wie schlechter Datenqualität, unrealistischen Erwartungen und fehlenden Standards verbunden. In dieser Episode sprechen wir mit unserem Gast Sarah über genau diese Stolpersteine und beleuchten, wie Unternehmen sie erfolgreich überwinden können. Dabei gibt sie spannende Einblicke in ihre Arbeit im digitalen Marketing und der Datenanalyse und zeigt auf, warum insbesondere in der Anfangsphase von BI-Projekten ein klares Erwartungsmanagement und definierte Standards in der Datenverarbeitung entscheidend sind. Sie bringt spannende Einblicke aus dem digitalen Marketing mit und spricht über die Rolle von Automation Tools in der Datenanalyse. Wir sprechen über die Schwierigkeiten, die entstehen, wenn Unternehmen sich auf Standardlösungen verlassen und erst später merken, dass diese nicht alle wichtigen Fragen beantworten können. Diese versprechen umfassende Reportingmöglichkeiten, stoßen jedoch schnell an ihre Grenzen, wenn es um individuelle Fragestellungen geht. Genau hier kommt Power BI ins Spiel: Welche Vorteile bietet das Tool gegenüber Standardlösungen? Was muss man beachten? Welche Vorteile bietet das Tool gegenüber Standardlösungen im Marketing? Wir diskutieren, welche Best Practices es für die Modellierung und Visualisierung gibt, um aussagekräftige Analysen zu erstellen. Dabei geht es auch darum, welche Funktionen von Power BI Unternehmen helfen können, Daten sinnvoll zu aggregieren und Entscheidungen datengetrieben zu treffen. Oft fehlt eine enge Zusammenarbeit über Fachteams hinaus, was dazu führt, dass wertvolle Daten nicht effizient genutzt werden. Wie können Unternehmen sicherstellen, dass alle Beteiligten an einem Strang ziehen? Welche Rolle spielen Controlling und Datenschutz in diesem Prozess? Welche Erfahrungen haben Sarah, Andreas und Marcus mit der Wahl des richtigen BI-Modells gemacht. Wie hat sich sich deren Anwendung in der Praxis bewährt? Haben sich unterschiedliche Herangehensweisen als besonders effektiv erwiesen? Sind alle drei einer Meinung, oder gibt es hier unterschiedliche Sichtweisen? Zum Abschluss gibt heute Sarah drei wertvolle Tipps für den erfolgreichen Umgang mit BI-Projekten: 1. Einfach mal anfangen und nicht zu lange zögern. 2. Projekte in kleine Schritte aufteilen, um den Veränderungsschmerz zu reduzieren. 3. Sich von Anfang an bewusst machen, warum man etwas tut, und die dahinterstehenden Prozesse verstehen. Möchtet Ihr mit uns ins Gespräch kommen? Hier sind einige Fragen zur Diskussion: • Wie geht ihr mit der Erwartungshaltung eurer Kunden in BI-Projekten um? • Welche Erfahrungen habt ihr mit der Zusammenarbeit zwischen Marketing, Sales und Controlling gemacht? • Wie handhabt ihr die Problematik rund um Datenqualität und Automatisierungsfehler? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#082 Wie viele Daten passen in ein Power BI-Modell?
In dieser Podcast-Episode geht es um die Bedeutung von Datenmodellen in Power BI und ihre Auswirkungen auf die Performance und die Datenanalyse. Wir werfen einen genauen Blick auf die Rolle von Dimensionen und Granularität und erläutern, wie du diese effektiv einsetzt, um aussagekräftige Berichte zu erstellen und gleichzeitig die Performance deines Modells zu optimieren. Ein wichtiger Punkt ist die Trennung von Datum und Zeit. Es ist entscheidend, diese beiden Elemente klar zu differenzieren, um präzise Zeitreihenanalysen und effiziente Aggregationen zu ermöglichen. Doch bei all dem spielt auch die Datenmenge eine wichtige Rolle: Wie viele Felder und Zeilen können in Power BI verarbeitet werden, ohne dass die Performance leidet? Und wie beeinflusst die Datasetgröße die Ladegeschwindigkeit und Verarbeitung? Ein zusätzlicher Faktor: Alles, was du an Daten mitnimmst, kostet Performance. Der Italiener in mir sagt dazu: "It depends!" Es kommt darauf an, welche Daten du tatsächlich benötigst und wie gut du sie komprimierst. Gute Komprimierungsverfahren in Power BI können hierbei helfen, die Performance trotz großer Datenmengen auf einem hohen Niveau zu halten. Im Gespräch gehen wir auch auf die Bedeutung der Datenqualität und -güte ein. Denn ein solides Datenmodell ist nicht nur eine Frage der Struktur, sondern auch der Qualität der Daten, die du darin abbildest. Nur wenn deine Daten konsistent und vertrauenswürdig sind, kannst du daraus wertvolle, zuverlässige Analysen ableiten. Natürlich werfen wir auch einen Blick auf die unterschiedlichen Lizenzen in Power BI, die entscheidend dafür sind, welche Datenmengen und Verarbeitungsressourcen dir zur Verfügung stehen. Power BI Pro und Power BI Premium bieten unterschiedliche Kapazitäten, die je nach Umfang und Anforderungen deines Projekts eine Rolle spielen. Wie sehen es Andreas und Marcus? Können die eigenen Erfahrungen mit der Wahl des richtigen Modells und deren Anwendung helfen bei der Fragestellung? Haben wir unterschiedliche Herangehensweisen, die besonders gut funktionieren und was hat die Granularität und Qualität der Daten für eine Auswirkung? Macht es einen Unterschied in der Analyse wie man das Modell konzipiert? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet Ihr mit uns ins Gespräch kommen sind hier ein paar Fragen zur Diskussion • Was ist eure bevorzugte Methode zur Datenmodellierung in Power BI? • Wie geht ihr mit der Trennung von Datum und Zeit um und welche Granularität verwendet ihr in euren Modellen? • Welche Erfahrungen habt ihr mit der Handhabung von großen Datenmengen und der Wahl der passenden Lizenz gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#080 Wie fördern Mobile Reports die Datendemokratisierung?
n den letzten zehn Folgen haben wir zentrale BI-Themen behandelt, wie die Integration sauberer Daten, die Bedeutung des Datenmodells und den Aufbau einer BI-Community. Wir sprachen über Power BI, unsere Lieblingsfunktionen und die Nutzung von KI, sowie über Datenqualität und Anforderungen im Zeitalter der KI. Zudem teilten wir Erfahrungen mit Direct Query und diskutierten, wie wir mit Veränderungen umgehen und welche Erwartungen wir für das neue Jahr haben. Ist jetzt noch Zeit für ein neues Thema? Nach diesem umfassenden Rückblick stellt sich die Frage, ob noch Raum für ein neues Thema bleibt. Die Antwort ist ein klares Ja. Datendemokratisierung: Wie fördern Mobile Reports die Datendemokratisierung? Ein zentrales Thema, das wir nicht außer Acht lassen dürfen, ist die Datendemokratisierung. Wie können wir sicherstellen, dass alle Mitarbeiter, unabhängig von ihrer technischen Expertise, Zugang zu den richtigen Daten haben? Ziel ist es, eine Kultur zu schaffen, in der jeder – vom CEO bis zum operativen Mitarbeiter – die Möglichkeit hat, fundierte, datengetriebene Entscheidungen zu treffen. Sind unsere BI-Systeme so aufgebaut, dass sie eine breite Nutzergruppe ansprechen, vom Power-User bis hin zum weniger technisch versierten Anwender? Es ist entscheidend, eine Kultur der Datentransparenz zu etablieren. Alle Mitarbeitende erhalten Zugang zu den Informationen, die sie für ihre Arbeit benötigen, und können Entscheidungen nachvollziehbar und transparent treffen. So wird Vertrauen in die Daten aufgebaut und die Zusammenarbeit im Unternehmen gefördert. Mobile Reports spielen eine Schlüsselrolle in der Datendemokratisierung, indem sie es einer breiten Benutzergruppe ermöglichen, Daten in Echtzeit und auf mobilen Geräten zuzugreifen. Diese Berichte fördern eine breitere Nutzung von Daten, indem sie nicht nur den traditionellen Power-Usern zugänglich gemacht werden, sondern auch den weniger technisch versierten Nutzern die Möglichkeit geben, fundierte Entscheidungen zu treffen. Indem Unternehmen den Zugang zu Daten über Mobile Reports erweitern, fördern sie eine Kultur der Datentransparenz und -verfügbarkeit, die für die Datendemokratisierung unerlässlich ist. Wie sehen es Andreas und Marcus? Sind wir derselben Meinung oder haben wir unterschiedliche Ansichten? Welche Erfahrungen haben wir in unseren BI-Projekten gemacht? Gibt es unterschiedliche Herangehensweisen an das Thema? Hört mal rein, was wir zu sagen haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#079 Was sind unsere Wünsche und Erwartungen für das neue Jahr?
In dieser Episode tauchen wir tief ein in die prägenden Trends von 2024 und reflektieren, wie sie unseren Projektalltag beeinflusst haben. Von Datenqualität, Datenkultur, Data Literacy bis hin zu Data Governance – welche Themen haben uns wirklich vorangebracht? Und wie haben Berechtigungen und Zugriffe das „BI-Haus“ mitgestaltet? Natürlich sprechen wir auch über die Technologien, die das Jahr geprägt haben: Kapazitätsmetriken und deren Rolle in skalierbaren BI-Projekten. Bereitstellungspipelines und wie sie für effiziente Prozesse sorgen. Ordnerstrukturen, die Übersichtlichkeit und Organisation fördern. Einen Ausblick auf die neuen Features für Fabric in 2025 – was erwartet uns in der Zukunft? Die KI-Entwicklung war ein weiteres heißes Thema: Copilot steht sinnbildlich für die Verschmelzung von KI mit den Microsoft-Produkten – Hype oder echter Game-Changer für Self-Service-Analysen, Data Warehouse-Modernisierung und Entscheidungsintelligenz? Im typischen „The Data Brothers“-Stil vergleichen wir diese Trends mit unseren Projekterfahrungen aus 2024 und verraten euch, welche Themen uns besonders im Kundenumfeld begegnet sind. Gibt es eine klare Richtung oder bleibt alles so individuell wie ein maßgeschneiderter Anzug? Zum Abschluss wagen wir den Blick nach vorne: Unsere Wünsche und Erwartungen für 2025– was steht auf unserer Agenda? Welche Trends begleiten uns weiter, und welche Themen könnten neu aufkommen? Freut euch auf spannende Insights, Geschichten aus Kundenprojekten und die drei wichtigsten Dinge, die ihr für eure BI-Reise ins neue Jahr mitnehmen könnt. Hört rein, wenn Andreas und Marcus erzählen, was 2024 gebracht hat, und was wir gemeinsam aus 2025 machen können. Jetzt reinhören und bestens vorbereitet ins neue Jahr starten!
-
#078 Wie gehen wir mit Veränderungen um?
In dieser Episode feiern wir 3 Jahre The DataBrothers und werfen einen Blick auf unsere Reise: Welche Fortschritte haben wir gemacht, und wie sind wir mit Herausforderungen umgegangen? Wir teilen unsere Erfahrungen zu wichtigen Themen wie der Umstellung von Datenbanken, dem Wechsel von Datenquellen und kompletten Systemwechseln – alles entscheidende Schritte, um datengetriebene Projekte effizient und nachhaltig umzusetzen. Was bedeuten die neuen Technologien, Konzepte und Features und welchen Einfluss haben sie auf Landingzones, Datatables und Dataflows. Welchen Mehrwert haben Feldparameter in Power BI? Alles was uns dabei unterstützt flexiblere und benutzerfreundlichere Lösungen zu entwickeln die wir in unseren Projekten erfolgreich einsetzen. Mit der Einführung neuer Datentypen, von denen einige noch in der Entwicklung stecken, und der Nutzung der neuesten SQL-Server-Version die am Horizont auftaucht setzen wir auf Innovation, um mit den steigenden Anforderungen an BI-Projekte Schritt zu halten. Einige dieser Funktionen befinden sich noch in der Vorschauphase (Preview), während andere bereits allgemein verfügbar (GA) sind. Außerdem blicken wir nach vorne und teilen unsere guten Vorsätze für die Zukunft: Wie wollen wir uns weiterentwickeln, und welche Strategien helfen uns dabei, Veränderungen aktiv zu gestalten? Freut euch auf: Einblicke in unsere Entwicklung und die Herausforderungen der letzten drei Jahre. Praktische Tipps zur Nutzung moderner Technologien wie Dataflows und Feldparametern. Unsere Learnings und Visionen für datengetriebene Projekte der nächsten Generation. Diese Episode ist euer Survival-Guide für die Herausforderungen moderner Datenwelten – praxisnah, inspirierend und voller Aha-Momente um das Maximum aus euren BI-Projekten herauszuholen.
-
#077 Welche Erfahrungen haben wir mit Direct Query gemacht?
Direct Query, Importmode und Power BI: Wie machen wir BI-Analysen smart? Effizienz, Flexibilität und Benutzerfreundlichkeit sind der Schlüssel für erfolgreiche BI-Projekte. Aber wie wichtig ist das passende Datenmodell wirklich? Und welche Rolle spielen DirectLake, Direct Query und Importmode bei der Umsetzung moderner Anforderungen? Direct Query in Power BI hebt Echtzeit-Datenmanagement auf ein neues Niveau: Daten bleiben in der Quelle, Dashboards sind immer up-to-date und Big Data wird spielend bewältigt – perfekt für dynamische, datenintensive Anwendungen. Features wie Query Folding steigern die Effizienz, indem Datenbankabfragen direkt optimiert werden. Doch wo liegen die Grenzen? Ist Direct Query wirklich der richtige Ansatz für jeden Use Case, oder gibt es Kompromisse bei Performance und Flexibilität? Sind die Vorteile von Direct Query ohne Einschränkungen zu haben und ist das für alle Anwendungsfälle der richtige Ansatz? Muss man hier möglichen Einschränkungen bei der Performance beachten? Freuen Sie sich auf die Praxis-Tipps von Andreas und Marcus! Erfahren Sie, wie Direct Query, Importmode, DirectLake und Power BI in echten Projekten genutzt werden. Wie optimiert man Datenstrukturen? Welche Herausforderungen gibt es, und wie lassen sich diese meistern? Dazu erwarten Sie drei knackige Key Takeaways, die Sie sofort in Ihrem nächsten Projekt einsetzen können. Das sollten Sie nicht verpassen – datengetriebene Insights, die wirklich zählen!
-
#075 Passen die Daten zu meiner Analyse?
Wir starten mit einer zentralen Frage: Wie wichtig ist das passende Datenmodell, um BI-Projekte erfolgreich umzusetzen? Besonders dann, wenn es darum geht, komplexe Produkt-/Kundenstrukturen zu analysieren, ohne Buchungsdaten zu verlieren, und trotzdem alle Infos für die Planung bereitzustellen. Wir werfen einen genauen Blick darauf, wie sich gezielt eingesetzten Kennzahlen, das Ausblenden irrelevanter Werte und die richtige Handhabung von Dimensionen und Filtern auswirken. Ist das Sternschema der perfekte Startpunkt: Es bietet eine klare und effiziente Struktur für schnelle Analysen und übersichtliche Berichte. Ideal für Szenarien, in denen Fakten und Dimensionen in klaren Beziehungen zueinanderstehen. Das Snowflake-Schema hingegen liefert eine detailliertere, normalisierte Struktur, die in komplexen Datenlandschaften glänzt und auch dann tiefgehende Analysen ermöglicht, wenn Kundendaten im BI fehlen. Aber aufgepasst – verlieren wir den Kunden durch diese Komplexität vielleicht schon im Projekt? Wir diskutieren außerdem, wie ein durchdachtes Datenmodell die User Experience massiv verbessern kann: Wichtiges wird hervorgehoben, Überflüssiges ausgeblendet. So entsteht ein klarer und intuitiver Überblick, der dir die Basis für fundierte Entscheidungen bietet. Freu dich auf spannende Insights von Andreas und Marcus, die von ihren Erfahrungen mit Power BI erzählen. Sie teilen ihre besten Tipps zur Optimierung von Strukturen- und Umsatzzahlen sowie zur Auswahl passender Dimensionen und Filter für eine optimale User Experience. Und wie immer gibt’s die drei Key Takeaways für den Nachhauseweg! Wie sieht eure beste Methode zur Datenmodellierung und Optimierung der User Experience in Power BI aus? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und eure besten Tipps.
-
#074 Wie kombiniert man Power BI mit AI? Gast: Diana Ackermann
In dieser Podcast-Episode geht es darum, wie Power BI als mächtiges Werkzeug für AI-gestützte Analysen und maschinelles Lernen eingesetzt werden kann. Ursprünglich oft als reines ETL- und Reporting-Tool gesehen, hat sich Power BI inzwischen stark weiterentwickelt. Wir beleuchten die Frage: Wie kombiniere ich Power BI mit AI, um tiefere Einblicke zu gewinnen? Ein zentraler Aspekt dieser Entwicklung ist die Integration von Azure Machine Learning. Mithilfe dieser Plattform können Benutzer AI-Modelle erstellen und direkt in ihre Berichte und Dashboards integrieren. Wir diskutieren, wie Azure ML dir dabei helfen kann, prädiktive Analysen durchzuführen und Muster in deinen Daten zu erkennen, die sonst verborgen geblieben wären. Natürlich ist auch Datenqualität ein entscheidender Faktor. Denn nur mit sauberen und konsistenten Daten lassen sich aussagekräftige AI-Modelle erstellen. Wir diskutieren, wie Power BI-Tools zur Datenbereinigung und -transformation genutzt werden können, um sicherzustellen, dass deine Daten für AI-Analysen optimal vorbereitet sind. Außerdem sprechen wir darüber, wie Power BI als Reporting-Tool angefangen hat und sich jetzt zu einer umfassenden Plattform für Business Intelligence und maschinelles Lernen entwickelt hat. Das Zusammenspiel von Power BI und Azure ML ermöglicht es, in Echtzeit fundierte Entscheidungen zu treffen und Geschäftsprozesse zu optimieren. Freut euch auf interessante Einblicke, wie Diana, Andreas und Marcus ihre Erfahrungen mit der Integration von AI in Power BI teilen. Sie erklären, welche Vorteile dies für den BI-Alltag hat und wie es ihnen geholfen hat, noch bessere und präzisere Ergebnisse zu erzielen. Und wie immer gibt es die drei Dinge für den Nachhauseweg! Was sind eure Erfahrungen mit AI und Power BI? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen
-
#073 Wie wichtig ist das Datenmodell?
In dieser Podcast-Episode dreht sich alles um die Bedeutung von Datenmodellen in Power BI. Wir starten mit der Frage: Wie wichtig ist das richtige Datenmodell für den Erfolg in BI-Projekten? Dabei werfen wir einen genauen Blick auf das Sternschema und das Snowflake-Schema – zwei der bekanntesten Ansätze zur Datenmodellierung. Das Sternschema bietet eine einfache und effiziente Möglichkeit, Daten zu organisieren, sodass Analysen und Berichte schnell und übersichtlich erstellt werden können. Es eignet sich perfekt für Szenarien mit klaren Beziehungen zwischen Fakten- und Dimensionstabellen. Im Gegensatz dazu bietet das Snowflake-Schema eine detailliertere und normalisierte Struktur, die besonders in komplexeren Datenlandschaften glänzt. Wir besprechen auch die Rolle von Dimensionen in diesen Modellen. Sie sind der Schlüssel zu flexiblen und aussagekräftigen Berichten, da sie uns ermöglichen, Daten aus verschiedenen Blickwinkeln zu analysieren. Ein gutes Verständnis von Dimensionen und deren Einsatz in den beiden Modelltypen ist entscheidend, um das Beste aus Power BI herauszuholen. Natürlich darf auch das Thema Datenqualität nicht fehlen! Ein solides Datenmodell ist die Grundlage für vertrauenswürdige Analysen. Wir diskutieren, wie die Wahl des richtigen Modells dazu beitragen kann, dass deine Daten sauber und konsistent bleiben. Freut euch auf spannende Einsichten, wie Andreas und Marcus im Gespräch über ihre eigenen Erfahrungen mit Datenmodellen in Power BI berichten. Sie teilen bewährte Praktiken, wann welches Schema am besten geeignet ist und wie Dimensionen dabei helfen, tiefer in die Datenanalyse einzutauchen. Wie immer gibt es die drei Dinge für den Nachhauseweg! Was ist eure bevorzugte Methode zur Datenmodellierung? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen.