Neueste Podcast Beiträge
-
#091 Was kann Translytical?
Was kann Translytical Data Flow eigentlich genau leisten? In dieser Folge tauchen wir in das Konzept ein, das die klassische Trennung zwischen Analyse und operativen Prozessen auflösen kann? Wir beleuchten, wie dieser Ansatz in der Praxis funktioniert, welche technischen Voraussetzungen nötig sind und wo die größten Chancen und Herausforderungen liegen. Besonders überzeugend war ein Tutorial, das wir ausprobiert haben: Es macht die Funktionsweise direkt greifbar, weil man sofort selbst mit echten Daten arbeiten kann. Diese unmittelbare Umsetzbarkeit hilft Teams, schneller zu verstehen, wie sie Translytical Data Flow sinnvoll in ihre Systeme integrieren können. Doch es gibt auch Grenzen: Eine Logikfunktion fehlt aktuell, was komplexe Entscheidungsregeln erschwert. Hier bleibt es spannend, ob und wie das Feature weiterentwickelt wird und die Community Wünsche und Input liefert. Der Gedanke, dass Datenprozesse nicht mehr „nachgelagert“ sind, sondern Teil der eigentlichen Anwendung werden machen es interessant, oder? Und ganz klar: Planungsapplikationen in Power BI kann Translytical Data Flow (noch) nicht ersetzen. Es fehlen zentrale Funktionen wie: • Splashing (Werteverteilung auf einzelne Ebenen) • Verteilen von Planwerten auf Benutzer oder Organisationseinheiten • Master-Data-Pflege, also das strukturierte Management von Stammdaten Drei Erkenntnisse und Tipps aus der Folge: 1. Gute Tutorials mit Live-Interaktion fördern schnelles Verständnis. 2. User Data Functions und Filterobjekte eröffnen neue Anwendungsfelder. 3. Low Code / No Code senkt die Einstiegshürden aber komplexe Logiken brauchen noch Ergänzung. Diskussionsfragen an euch: • Welche Use Cases für Translytical Data Flow seht ihr in eurem Unternehmen? • Nutzt ihr bereits User Data Functions oder ähnliche Ansätze in eurer Datenanalyse? • Low Code / No Code-Ansatz, der schnelle Entwicklung erlaubt, auch für Fachanwender? • Welche Anforderungen habt ihr an Logikfunktionen in Echtzeitanwendungen? Wir freuen uns auf eure Ideen, Erfahrungen und Fragen!
-
#090 Wie schaffen wir es, unseren Verpflichtungen gerecht zu werden?
In diesen Folgen haben wir nicht nur über die Integration sauberer Daten und die Bedeutung des Datenmodells gesprochen, sondern auch über den Aufbau einer BI-Community. Wir haben unsere Lieblingsfunktionen in Power BI beleuchtet, die Rolle von KI in der Datenanalyse diskutiert und Anforderungen im Zeitalter der künstlichen Intelligenz reflektiert. Dabei standen ebenso Fragen zur Datenqualität, zum Umgang mit Direct Query und zur Bewältigung von Veränderungen im Fokus, inklusive unserer Erwartungen an das kommende Jahr. Ist jetzt noch Zeit für ein neues Thema? Nach zehn intensiven Folgen zu Power BI, Datenkultur und technologischen Entwicklungen könnte man meinen, wir hätten alles besprochen. Doch es gibt eine Frage, die über Technik hinausgeht und unser tägliches Arbeiten direkt betrifft: Wie schaffen wir es, unseren Verpflichtungen gerecht zu werden? Business Intelligence lebt von Verantwortung. Von sauberen Daten, zuverlässigen Modellen und fundierten Entscheidungen. Doch hinter jeder BI-Lösung stehen Menschen und mit ihnen eine Vielzahl von Verpflichtungen, Erwartungen und Herausforderungen. Wir wollen heute einen Schritt zurücktreten und uns fragen: Wie schaffen wir es, all dem gerecht zu werden? Und wie gelingt uns das auf eine Weise, die nachhaltig ist, für Projekte, aber auch für uns persönlich? Verpflichtungen in BI-Projekten sind vielfältig: Fachbereiche erwarten schnell nutzbare Dashboards, die IT fordert Standards und Governance, das Management will strategische Auswertungen und das möglichst gestern. Dazu kommen Schulungen, Nutzerfeedback, Bugs, Deadlines. Alles wichtig. Alles dringend. Doch was passiert, wenn alles gleich wichtig erscheint? Wenn Berufliches ins Private übergreift, weil „es ja nur noch schnell gemacht werden muss“? Wenn der Kalender voll ist, aber dennoch jede neue Anfrage ein "Ja" bekommt? Darum sprechen wir auch über: • Grenzen ziehen: Wie gelingt es, Berufliches und Privates zu trennen, in Zeiten von Homeoffice, mobilen Geräten und ständiger Erreichbarkeit? • Nein sagen: Warum es manchmal das mutigste (und klügste) ist, auch mal bewusst Aufgaben abzulehnen, um Qualität zu sichern, statt auf allen Baustellen gleichzeitig zu sein. • Prioritäten setzen: Welche Verpflichtungen sind wirklich wichtig? Und wer definiert das eigentlich? • Selbstverantwortung und Fürsorge: Wie achten wir auf uns selbst, damit wir langfristig leistungsfähig und motiviert bleiben? • Teamstrukturen und Rollenklärung: Wer übernimmt was und wie verhindern wir, dass alle alles machen (und niemand mehr durchblickt)? Verpflichtungen sind nicht nur eine Frage der Organisation, sondern auch der Haltung. Verantwortung heißt nicht, alles zu machen, sondern die richtigen Dinge gut zu machen. Für das Team, die Organisation und sich selbst. Und wie sehen es Andreas und Marcus? Auch in dieser Folge teilen wir offen unsere eigenen Erfahrungen: Wann haben wir uns zu viel vorgenommen? Wie schaffen wir es, Prioritäten zu setzen und wo fällt uns das noch schwer? Welche Tools und Strategien helfen uns? Wie immer bekommt ihr drei praktische Takeaways, ehrlich und authentisch. Reinhören lohnt sich für alle, die BI machen und dabei Mensch bleiben wollen.
-
#089 Wer weiß was?
Je digitaler unsere Arbeitswelt wird, desto wichtiger ist die zentrale Frage: Wer weiß was? Oft liegt entscheidendes Know-how bei Einzelnen ungeteilt, unausgesprochen, unbewusst. Dabei entsteht echte Souveränität nicht allein durch Technik, sondern durch das Teilen von Wissen. In einer Welt, in der Dienste, Daten und Prozesse ständig wachsen, muss Wissen bewusst gemacht und zugänglich sein. Nur wer sich regelmäßig mit Kolleginnen und Kollegen austauscht, kann informierte Entscheidungen treffen über Systeme, Verantwortlichkeiten und Risiken. Denn Wissen wirkt nur dann, wenn es weitergegeben, hinterfragt und gemeinsam weiterentwickelt wird. Wissenssouveränität entsteht im Team Andreas und Marcus bringen zwei Perspektiven in den Austausch ein: Andreas stellt die Frage nach Verantwortung: Für ihn ist es zentral, dass alle Beteiligten verstehen, wer auf welche Informationen Zugriff hat und wie Wissen klassifiziert wird bevor Projekte starten. Marcus bringt die technische Seite ein für ihn zählt, dass Wissen dokumentiert, zugänglich und portabel ist, sodass Teams bei Bedarf unabhängig agieren können. Was uns beide verbindet: Wir setzen auf transparente Kommunikation, klare Rollen und den Willen, gegenseitig voneinander zu lernen, statt sich auf Einzellösungen oder Spezialwissen zu verlassen. Drei Impulse für mehr Wissenshoheit im Team 1. Wissen sichtbar machen Wer weiß was – und wo fehlt etwas? Erst Transparenz schafft Handlungsfähigkeit. 2. Austausch fördern Regelmäßige Gespräche im Team helfen, Wissen zu verbreitern, auch über Fachgrenzen hinweg. 3. Verantwortung teilen Wenn alle wissen, worauf es ankommt, kann Verantwortung auch gemeinsam getragen werden. Jetzt seid ihr gefragt • Wie gelingt es euch im Alltag, Wissen zu teilen und weiterzugeben? • Welche Formate oder Tools nutzt ihr, um Wissen zugänglich zu machen? • Wo seht ihr Potenziale und vielleicht auch Blockaden im Austausch? Teilt eure Erfahrungen, denn Wissenshoheit entsteht, wenn wir reden, zuhören und voneinander lernen.
-
#088 Wie sehen wir die Souveränität von Datenplattformen?
Souveränität statt Abhängigkeit: Warum wir jetzt über selbstbestimmte Plattformen sprechen müssen Die digitalen Möglichkeiten wachsen rasant. Von Managed Services bis "Everything-as-a-Service" liefern Hyperscaler unzählige Funktionen, die Entwicklungsteams und BI-Teams begeistern – gleichzeitig aber neue Abhängigkeiten schaffen. Wer heute eine moderne Plattform aufbaut, braucht mehr als nur technische Power: Gefragt ist ein klares Modell, das Portabilität, Flexibilität und Unabhängigkeit im Blick behält. Denn das "Schiff" der Plattform wird größer, komplexer – und wer nicht aufpasst, landet schneller als gedacht im Strudel der Anbieterabhängigkeit. Die Herausforderung: Innovation nutzen, ohne sich komplett von einem Hersteller oder System abhängig zu machen. Unternehmen und Teams müssen bewusst entscheiden, wo sie auf Services setzen – und wo sie lieber offen bleiben wollen. Nur so bleibt das Wechseln des Hafens – oder gar der ganzen Reederei – auch in Zukunft möglich. Wie sehen es Andreas und Marcus? Andreas und Marcus bringen verschiedene Perspektiven aus ihren BI- und Data-Engineering-Erfahrungen mit: Andreas betont die Balance zwischen Komfort und Kontrolle: Er liebt bewährte Tools, achtet aber auf mögliche Stolperfallen bei Web-Only-Angeboten und Funktionsunterschieden. Marcus setzt auf technische Portabilität: Mit Containern, offenen Formaten wie Parquet und einer Infrastruktur, die bei Bedarf den Anbieter wechseln kann. Ihr gemeinsames Ziel: ein flexibles, manövrierfähiges Plattform-Schiff, das Innovationen aufgreift, ohne die Kontrolle zu verlieren. Daraus haben sie drei praktische Tipps für den Nachhauseweg abgeleitet, oder? Warum Portabilität heute wichtiger denn je ist. Weshalb offene Formate und modulare Architekturen echte Lebensretter sein können. Und warum "alles online, alles überall" nicht immer der beste Weg sein muss. Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#087 Was waren unsere FabCon Highlights?
icrosoft Fabric ermöglicht jetzt KI-Features bereits in kleineren Kapazitäten – aber wie sinnvoll sind diese Features im echten Arbeitsalltag? Wir hinterfragen kritisch, ob die Umbenennung der „KI Skills“ in „Agents“ einen echten Mehrwert bietet und warum das Timing kurz vor dem 1. April möglicherweise etwas unglücklich war. Weitere Themen sind der Copilot, der eigenständig innerhalb des Teams mit relevanten Daten antwortet, sowie der Überspannungsschutz, der unbemerkt im Hintergrund agiert. Wir diskutieren, wie Autoscaling für Spark effizient Ressourcen bereitstellt und Kosten optimiert. Besonderes Augenmerk legen wir auf die Sicherheitsaspekte von OneLake Security: Welche Schutzmechanismen bietet Microsoft Fabric, um sensible Unternehmensdaten sicher zu speichern? Kann Fabric durch fein abgestufte Berechtigungen überzeugen und welche Herausforderungen lassen sich dadurch effektiv meistern? Zudem werfen wir einen Blick auf praktische Neuerungen wie den COPY Job, der nun die passenden Features in Fabric-Pipelines bringt, die Einsatzmöglichkeiten von User Defined Functions und die Integration mit Git. Wir sprechen außerdem darüber, ob die Vielzahl der Konferenzen wirklich dabei hilft, Neuerungen gezielt zu vermitteln oder ob weniger manchmal mehr ist. Nicht zuletzt diskutieren wir den immer relevanten Konflikt: Setzen wir lieber auf individuelle Freiheit in der Datenanalyse oder bevorzugen wir standardisierten Business Content „von der Stange“? Ganz nebenbei erinnern wir uns daran, dass schon die Italiener vor Jahrhunderten die Buchhaltung erfunden haben. Wie immer gibt es drei praktische Tipps für den Nachhauseweg oder machen wir es diesmal anders? Wir freuen uns auf eure Meinung zu diesen Themen: Welche Highlights von der FabCon waren für euch besonders relevant? Wie bewertet ihr die Nützlichkeit der KI-Features in kleinen Kapazitäten? Sind die neuen „Agents“ wirklich eine Verbesserung? Wie setzt ihr Copilot, Autoscaling oder Git Integration praktisch ein? Wie zufrieden seid ihr mit der OneLake-Security? Bevorzugt ihr eher freie, flexible Lösungen oder Business Content von der Stange? War der Release-Termin kurz vor dem 1. April clever gewählt? Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#086 Wie nutze ich Fabric einfach, kontrolliert und kosteneffizient?
In dieser Podcast-Episode diskutieren wir intensiv über Microsoft Fabric und die zentrale Frage: Ist Fabric tatsächlich das „Waschen ohne nass zu werden“ der BI-Welt? Früher hatten wir unsere eigenen Server, on Premises, individuell konfiguriert und sogar mit Namen versehen. Doch davon müssen wir uns langsam verabschieden. Die Zukunft gehört Plattformen, bei denen jeder Wunsch erfüllt wird – sei es Notebooks für Analysten, SQL-Datenbanken für Entwickler oder umfassendes Dateimanagement über integrierte Warehouse-Lösungen. Wir sprechen darüber, ob das ständig wachsende Angebot neuer Features tatsächlich hilft oder ob wir uns nicht doch lieber eine einfache, verlässliche Oberfläche wünschen, die „einfach funktioniert“. Denn nicht immer braucht man gleich eine Power BI Premium Lizenz – oder gar die leistungsstarke F64-Kapazität die auch gleich die KI-Features mitbringt. Dabei werfen wir auch einen Blick auf das Lakehouse-Konzept, das mit seinen Spark-Notebooks neue analytische Möglichkeiten bietet. Doch wann ist der richtige Moment, von traditionellen Lösungen auf ein Lakehouse zu wechseln? Vielleicht lautet die Antwort: „Dann gehe ich doch erstmal Richtung Lakehouse!“ Wir gehen auf die Vor- und Nachteile ein, wenn alles „in der Box“ verfügbar ist. Welche Erfahrungen machen Unternehmen und Analysten, wenn sie traditionelle Infrastrukturen verlassen und zu Fabric wechseln? Können Anforderungen wirklich flexibler und effizienter erfüllt werden oder führt die Fülle an Möglichkeiten eher zu Überforderung? Wie sehen Andreas und Marcus das Thema? Haben wir es hier mit einer echten Revolution im Datenmanagement zu tun oder ist es nur eine vorübergehende Entwicklung? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion • Kennt ihr noch eure Server „on Prem“ und gebt ihr ihnen immer noch Namen? • Wie seht ihr den Wandel von klassischen Server on Prem hin zu Cloud-Lösungen wie Fabric? • Glaubt ihr, dass Microsoft Fabric tatsächlich alle Bedürfnisse von Analysten und Entwicklern erfüllt? • Welche Erfahrungen habt ihr mit dem „Alles in der Box“-Ansatz gemacht, wo jedes Tool für Analysten und Entwickler direkt verfügbar ist? • Wann entscheidet ihr euch für eine Power BI Pro Lizenz oder sogar für eine F64-Kapazität – braucht man das immer? • Seid ihr schon auf dem Weg Richtung Lakehouse und wie sind eure Erfahrungen mit Spark-Notebooks? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#085 Wie kann ich mein Power BI automatisiert testen?
In dieser Podcast-Episode fokussieren wir uns auf das Thema automatisiertes Testing in Power BI-Projekten. Wir diskutieren, warum automatisierte Tests entscheidend sind, um eine hohe Datenqualität und Performance sicherzustellen, und wie sie professionell implementiert werden können. Besonderes Augenmerk liegt auf der Nutzung von Unit Tests und klar definierten Testfällen, um Kundenanforderungen zuverlässig abzubilden und Projektanforderungen effektiv zu dokumentieren. Wir sprechen auch darüber, warum es essenziell ist, dass Testverfahren gut dokumentiert sind und wie professionelle Entwicklungsprozesse dadurch unterstützt werden. Zudem gehen wir auf die Implementierung eines Regelwerks in dbt ein, das durch standardisierte Prozesse eine konsistente Datenverarbeitung sicherstellt. Welche Erfahrungen haben wir und andere Tester in diesem Bereich gemacht? Wie unterscheiden sich verschiedene Ansätze hinsichtlich Granularität, Performance und Qualität der Ergebnisse? Wie sehen Andreas und Marcus das Thema automatisiertes Testing? Welche Methoden haben sich bewährt und welche Auswirkungen hat eine professionelle Teststrategie auf BI-Projekte? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion: • Welche Methoden nutzt ihr für automatisiertes Testing in euren BI-Projekten? • Wie integriert ihr Unit Tests in eure Power BI-Modelle? • Wie dokumentiert ihr Testfälle und sorgt dafür, dass die Anforderungen der Kunden erfüllt werden? • Welche Erfahrungen habt ihr mit der Implementierung eines Regelwerks in dbt gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#084 Wie viel Trennung zwischen Dev und Prod in Power BI? Gast:Ulrik Harnisch
Power BI ermöglicht schnelle Analysen und flexible Berichte – doch wo liegt die Grenze zwischen Self-Service und professioneller BI-Entwicklung? Marcus und Ulrik diskutieren, ob getrennte Entwicklungs-, Test- und Produktivumgebungen in Power BI wirklich notwendig sind oder ob sie den Prozess unnötig verkomplizieren. Die zentrale Frage: Wie lassen sich schnelle Anpassungen ohne Risiko umsetzen? Während im klassischen Software-Development klare Strukturen existieren, setzen viele Unternehmen in Power BI immer noch auf spontane Änderungen direkt in der Produktionsumgebung. Doch was passiert, wenn kleine Anpassungen unerwartet große Auswirkungen haben? Wir beleuchten Best Practices zur Versionierung, die Herausforderungen beim Deployment und mögliche Automatisierungen, um den Entwicklungsprozess effizienter zu gestalten. Außerdem klären wir, ob Power BI sich noch im reinen Self-Service bewegt oder bereits professionelle Entwicklungsstandards benötigt. Wie sehen es Marcus und Ulrik? Sind sie sich einig oder haben sie unterschiedliche Perspektiven? Welche Erfahrungen haben sie in Projekten gemacht? Gibt es eine goldene Mitte zwischen Kontrolle und Flexibilität? Hört rein, um die Antwort zu finden! Natürlich gibt es auch wieder drei spannende Takeaways für euch!
-
#083 Welche Hürden gibt es in BI-Projekten? Gast: Sarah Ehrmayr
BI-Projekte sind oft mit Herausforderungen wie schlechter Datenqualität, unrealistischen Erwartungen und fehlenden Standards verbunden. In dieser Episode sprechen wir mit unserem Gast Sarah über genau diese Stolpersteine und beleuchten, wie Unternehmen sie erfolgreich überwinden können. Dabei gibt sie spannende Einblicke in ihre Arbeit im digitalen Marketing und der Datenanalyse und zeigt auf, warum insbesondere in der Anfangsphase von BI-Projekten ein klares Erwartungsmanagement und definierte Standards in der Datenverarbeitung entscheidend sind. Sie bringt spannende Einblicke aus dem digitalen Marketing mit und spricht über die Rolle von Automation Tools in der Datenanalyse. Wir sprechen über die Schwierigkeiten, die entstehen, wenn Unternehmen sich auf Standardlösungen verlassen und erst später merken, dass diese nicht alle wichtigen Fragen beantworten können. Diese versprechen umfassende Reportingmöglichkeiten, stoßen jedoch schnell an ihre Grenzen, wenn es um individuelle Fragestellungen geht. Genau hier kommt Power BI ins Spiel: Welche Vorteile bietet das Tool gegenüber Standardlösungen? Was muss man beachten? Welche Vorteile bietet das Tool gegenüber Standardlösungen im Marketing? Wir diskutieren, welche Best Practices es für die Modellierung und Visualisierung gibt, um aussagekräftige Analysen zu erstellen. Dabei geht es auch darum, welche Funktionen von Power BI Unternehmen helfen können, Daten sinnvoll zu aggregieren und Entscheidungen datengetrieben zu treffen. Oft fehlt eine enge Zusammenarbeit über Fachteams hinaus, was dazu führt, dass wertvolle Daten nicht effizient genutzt werden. Wie können Unternehmen sicherstellen, dass alle Beteiligten an einem Strang ziehen? Welche Rolle spielen Controlling und Datenschutz in diesem Prozess? Welche Erfahrungen haben Sarah, Andreas und Marcus mit der Wahl des richtigen BI-Modells gemacht. Wie hat sich sich deren Anwendung in der Praxis bewährt? Haben sich unterschiedliche Herangehensweisen als besonders effektiv erwiesen? Sind alle drei einer Meinung, oder gibt es hier unterschiedliche Sichtweisen? Zum Abschluss gibt heute Sarah drei wertvolle Tipps für den erfolgreichen Umgang mit BI-Projekten: 1. Einfach mal anfangen und nicht zu lange zögern. 2. Projekte in kleine Schritte aufteilen, um den Veränderungsschmerz zu reduzieren. 3. Sich von Anfang an bewusst machen, warum man etwas tut, und die dahinterstehenden Prozesse verstehen. Möchtet Ihr mit uns ins Gespräch kommen? Hier sind einige Fragen zur Diskussion: • Wie geht ihr mit der Erwartungshaltung eurer Kunden in BI-Projekten um? • Welche Erfahrungen habt ihr mit der Zusammenarbeit zwischen Marketing, Sales und Controlling gemacht? • Wie handhabt ihr die Problematik rund um Datenqualität und Automatisierungsfehler? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#082 Wie viele Daten passen in ein Power BI-Modell?
In dieser Podcast-Episode geht es um die Bedeutung von Datenmodellen in Power BI und ihre Auswirkungen auf die Performance und die Datenanalyse. Wir werfen einen genauen Blick auf die Rolle von Dimensionen und Granularität und erläutern, wie du diese effektiv einsetzt, um aussagekräftige Berichte zu erstellen und gleichzeitig die Performance deines Modells zu optimieren. Ein wichtiger Punkt ist die Trennung von Datum und Zeit. Es ist entscheidend, diese beiden Elemente klar zu differenzieren, um präzise Zeitreihenanalysen und effiziente Aggregationen zu ermöglichen. Doch bei all dem spielt auch die Datenmenge eine wichtige Rolle: Wie viele Felder und Zeilen können in Power BI verarbeitet werden, ohne dass die Performance leidet? Und wie beeinflusst die Datasetgröße die Ladegeschwindigkeit und Verarbeitung? Ein zusätzlicher Faktor: Alles, was du an Daten mitnimmst, kostet Performance. Der Italiener in mir sagt dazu: "It depends!" Es kommt darauf an, welche Daten du tatsächlich benötigst und wie gut du sie komprimierst. Gute Komprimierungsverfahren in Power BI können hierbei helfen, die Performance trotz großer Datenmengen auf einem hohen Niveau zu halten. Im Gespräch gehen wir auch auf die Bedeutung der Datenqualität und -güte ein. Denn ein solides Datenmodell ist nicht nur eine Frage der Struktur, sondern auch der Qualität der Daten, die du darin abbildest. Nur wenn deine Daten konsistent und vertrauenswürdig sind, kannst du daraus wertvolle, zuverlässige Analysen ableiten. Natürlich werfen wir auch einen Blick auf die unterschiedlichen Lizenzen in Power BI, die entscheidend dafür sind, welche Datenmengen und Verarbeitungsressourcen dir zur Verfügung stehen. Power BI Pro und Power BI Premium bieten unterschiedliche Kapazitäten, die je nach Umfang und Anforderungen deines Projekts eine Rolle spielen. Wie sehen es Andreas und Marcus? Können die eigenen Erfahrungen mit der Wahl des richtigen Modells und deren Anwendung helfen bei der Fragestellung? Haben wir unterschiedliche Herangehensweisen, die besonders gut funktionieren und was hat die Granularität und Qualität der Daten für eine Auswirkung? Macht es einen Unterschied in der Analyse wie man das Modell konzipiert? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet Ihr mit uns ins Gespräch kommen sind hier ein paar Fragen zur Diskussion • Was ist eure bevorzugte Methode zur Datenmodellierung in Power BI? • Wie geht ihr mit der Trennung von Datum und Zeit um und welche Granularität verwendet ihr in euren Modellen? • Welche Erfahrungen habt ihr mit der Handhabung von großen Datenmengen und der Wahl der passenden Lizenz gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!