Startseite » Self-Service
Schlagwort: Self-Service
-
#087 Was waren unsere FabCon Highlights?
icrosoft Fabric ermöglicht jetzt KI-Features bereits in kleineren Kapazitäten – aber wie sinnvoll sind diese Features im echten Arbeitsalltag? Wir hinterfragen kritisch, ob die Umbenennung der „KI Skills“ in „Agents“ einen echten Mehrwert bietet und warum das Timing kurz vor dem 1. April möglicherweise etwas unglücklich war. Weitere Themen sind der Copilot, der eigenständig innerhalb des Teams mit relevanten Daten antwortet, sowie der Überspannungsschutz, der unbemerkt im Hintergrund agiert. Wir diskutieren, wie Autoscaling für Spark effizient Ressourcen bereitstellt und Kosten optimiert. Besonderes Augenmerk legen wir auf die Sicherheitsaspekte von OneLake Security: Welche Schutzmechanismen bietet Microsoft Fabric, um sensible Unternehmensdaten sicher zu speichern? Kann Fabric durch fein abgestufte Berechtigungen überzeugen und welche Herausforderungen lassen sich dadurch effektiv meistern? Zudem werfen wir einen Blick auf praktische Neuerungen wie den COPY Job, der nun die passenden Features in Fabric-Pipelines bringt, die Einsatzmöglichkeiten von User Defined Functions und die Integration mit Git. Wir sprechen außerdem darüber, ob die Vielzahl der Konferenzen wirklich dabei hilft, Neuerungen gezielt zu vermitteln oder ob weniger manchmal mehr ist. Nicht zuletzt diskutieren wir den immer relevanten Konflikt: Setzen wir lieber auf individuelle Freiheit in der Datenanalyse oder bevorzugen wir standardisierten Business Content „von der Stange“? Ganz nebenbei erinnern wir uns daran, dass schon die Italiener vor Jahrhunderten die Buchhaltung erfunden haben. Wie immer gibt es drei praktische Tipps für den Nachhauseweg oder machen wir es diesmal anders? Wir freuen uns auf eure Meinung zu diesen Themen: Welche Highlights von der FabCon waren für euch besonders relevant? Wie bewertet ihr die Nützlichkeit der KI-Features in kleinen Kapazitäten? Sind die neuen „Agents“ wirklich eine Verbesserung? Wie setzt ihr Copilot, Autoscaling oder Git Integration praktisch ein? Wie zufrieden seid ihr mit der OneLake-Security? Bevorzugt ihr eher freie, flexible Lösungen oder Business Content von der Stange? War der Release-Termin kurz vor dem 1. April clever gewählt? Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#086 Wie nutze ich Fabric einfach, kontrolliert und kosteneffizient?
In dieser Podcast-Episode diskutieren wir intensiv über Microsoft Fabric und die zentrale Frage: Ist Fabric tatsächlich das „Waschen ohne nass zu werden“ der BI-Welt? Früher hatten wir unsere eigenen Server, on Premises, individuell konfiguriert und sogar mit Namen versehen. Doch davon müssen wir uns langsam verabschieden. Die Zukunft gehört Plattformen, bei denen jeder Wunsch erfüllt wird – sei es Notebooks für Analysten, SQL-Datenbanken für Entwickler oder umfassendes Dateimanagement über integrierte Warehouse-Lösungen. Wir sprechen darüber, ob das ständig wachsende Angebot neuer Features tatsächlich hilft oder ob wir uns nicht doch lieber eine einfache, verlässliche Oberfläche wünschen, die „einfach funktioniert“. Denn nicht immer braucht man gleich eine Power BI Premium Lizenz – oder gar die leistungsstarke F64-Kapazität die auch gleich die KI-Features mitbringt. Dabei werfen wir auch einen Blick auf das Lakehouse-Konzept, das mit seinen Spark-Notebooks neue analytische Möglichkeiten bietet. Doch wann ist der richtige Moment, von traditionellen Lösungen auf ein Lakehouse zu wechseln? Vielleicht lautet die Antwort: „Dann gehe ich doch erstmal Richtung Lakehouse!“ Wir gehen auf die Vor- und Nachteile ein, wenn alles „in der Box“ verfügbar ist. Welche Erfahrungen machen Unternehmen und Analysten, wenn sie traditionelle Infrastrukturen verlassen und zu Fabric wechseln? Können Anforderungen wirklich flexibler und effizienter erfüllt werden oder führt die Fülle an Möglichkeiten eher zu Überforderung? Wie sehen Andreas und Marcus das Thema? Haben wir es hier mit einer echten Revolution im Datenmanagement zu tun oder ist es nur eine vorübergehende Entwicklung? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion • Kennt ihr noch eure Server „on Prem“ und gebt ihr ihnen immer noch Namen? • Wie seht ihr den Wandel von klassischen Server on Prem hin zu Cloud-Lösungen wie Fabric? • Glaubt ihr, dass Microsoft Fabric tatsächlich alle Bedürfnisse von Analysten und Entwicklern erfüllt? • Welche Erfahrungen habt ihr mit dem „Alles in der Box“-Ansatz gemacht, wo jedes Tool für Analysten und Entwickler direkt verfügbar ist? • Wann entscheidet ihr euch für eine Power BI Pro Lizenz oder sogar für eine F64-Kapazität – braucht man das immer? • Seid ihr schon auf dem Weg Richtung Lakehouse und wie sind eure Erfahrungen mit Spark-Notebooks? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#085 Wie kann ich mein Power BI automatisiert testen?
In dieser Podcast-Episode fokussieren wir uns auf das Thema automatisiertes Testing in Power BI-Projekten. Wir diskutieren, warum automatisierte Tests entscheidend sind, um eine hohe Datenqualität und Performance sicherzustellen, und wie sie professionell implementiert werden können. Besonderes Augenmerk liegt auf der Nutzung von Unit Tests und klar definierten Testfällen, um Kundenanforderungen zuverlässig abzubilden und Projektanforderungen effektiv zu dokumentieren. Wir sprechen auch darüber, warum es essenziell ist, dass Testverfahren gut dokumentiert sind und wie professionelle Entwicklungsprozesse dadurch unterstützt werden. Zudem gehen wir auf die Implementierung eines Regelwerks in dbt ein, das durch standardisierte Prozesse eine konsistente Datenverarbeitung sicherstellt. Welche Erfahrungen haben wir und andere Tester in diesem Bereich gemacht? Wie unterscheiden sich verschiedene Ansätze hinsichtlich Granularität, Performance und Qualität der Ergebnisse? Wie sehen Andreas und Marcus das Thema automatisiertes Testing? Welche Methoden haben sich bewährt und welche Auswirkungen hat eine professionelle Teststrategie auf BI-Projekte? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion: • Welche Methoden nutzt ihr für automatisiertes Testing in euren BI-Projekten? • Wie integriert ihr Unit Tests in eure Power BI-Modelle? • Wie dokumentiert ihr Testfälle und sorgt dafür, dass die Anforderungen der Kunden erfüllt werden? • Welche Erfahrungen habt ihr mit der Implementierung eines Regelwerks in dbt gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#084 Wie viel Trennung zwischen Dev und Prod in Power BI? Gast:Ulrik Harnisch
Power BI ermöglicht schnelle Analysen und flexible Berichte – doch wo liegt die Grenze zwischen Self-Service und professioneller BI-Entwicklung? Marcus und Ulrik diskutieren, ob getrennte Entwicklungs-, Test- und Produktivumgebungen in Power BI wirklich notwendig sind oder ob sie den Prozess unnötig verkomplizieren. Die zentrale Frage: Wie lassen sich schnelle Anpassungen ohne Risiko umsetzen? Während im klassischen Software-Development klare Strukturen existieren, setzen viele Unternehmen in Power BI immer noch auf spontane Änderungen direkt in der Produktionsumgebung. Doch was passiert, wenn kleine Anpassungen unerwartet große Auswirkungen haben? Wir beleuchten Best Practices zur Versionierung, die Herausforderungen beim Deployment und mögliche Automatisierungen, um den Entwicklungsprozess effizienter zu gestalten. Außerdem klären wir, ob Power BI sich noch im reinen Self-Service bewegt oder bereits professionelle Entwicklungsstandards benötigt. Wie sehen es Marcus und Ulrik? Sind sie sich einig oder haben sie unterschiedliche Perspektiven? Welche Erfahrungen haben sie in Projekten gemacht? Gibt es eine goldene Mitte zwischen Kontrolle und Flexibilität? Hört rein, um die Antwort zu finden! Natürlich gibt es auch wieder drei spannende Takeaways für euch!
-
#076 Wer stellt die BI Anforderungen im Zeitalter der KI?
Wer stellt die Anforderungen für BI-Projekte im Zeitalter der KI, und wie wichtig ist ein passendes Datenmodell wirklich? Kann KI Strukturen effizienter gestalten, irrelevante Daten herausfiltern und die wichtigsten Dimensionen und Fakten gezielt kombinieren? Doch wie weit reicht diese Unterstützung tatsächlich? Kann die KI eigenständig Berichte und Strukturen erstellen, oder ist weiterhin menschliche Expertise gefragt, um den Kontext sinnvoll zu gestalten? Obwohl sich die Technologie schnell weiterentwickelt, bleibt die Frage: Was kann die KI übernehmen, und wo sind klare Vorgaben und Erwartungen unsererseits gefragt? Welche spezifischen Anforderungen sind notwendig, um moderne BI-Projekte erfolgreich umzusetzen? KI-gestützte Berichtsgeneratoren und inspirierende neue Designs versprechen Effizienz und Benutzerfreundlichkeit – aber was bewährt sich wirklich in der Praxis, und was bleibt lediglich ein schönes Konzept? Werden die wichtigen Informationen hervorgehoben und überflüssige Details ausgeblendet? Führt die KI zu einem klaren, intuitiven Überblick, der fundierte Entscheidungen unterstützt? Und lassen sich durch passende Berichtsvorlagen oder inspirierende neue Entwürfe Berichte gestalten, die sowohl visuell ansprechend als auch funktional sind? Was geben wir vor, und was möchten wir sehen? Freue dich auf wertvolle Einblicke von Andreas und Marcus, die ihre Erfahrungen mit KI-gestütztem BI teilen. Sie geben Tipps zur Strukturoptimierung, zur Nutzung von Berichtsgeneratoren und zur Auswahl geeigneter Dimensionen und Filter, um die User Experience zu maximieren. Natürlich gibt es auch wieder drei zentrale Key Takeaways für den praktischen Einsatz!
-
#074 Wie kombiniert man Power BI mit AI? Gast: Diana Ackermann
In dieser Podcast-Episode geht es darum, wie Power BI als mächtiges Werkzeug für AI-gestützte Analysen und maschinelles Lernen eingesetzt werden kann. Ursprünglich oft als reines ETL- und Reporting-Tool gesehen, hat sich Power BI inzwischen stark weiterentwickelt. Wir beleuchten die Frage: Wie kombiniere ich Power BI mit AI, um tiefere Einblicke zu gewinnen? Ein zentraler Aspekt dieser Entwicklung ist die Integration von Azure Machine Learning. Mithilfe dieser Plattform können Benutzer AI-Modelle erstellen und direkt in ihre Berichte und Dashboards integrieren. Wir diskutieren, wie Azure ML dir dabei helfen kann, prädiktive Analysen durchzuführen und Muster in deinen Daten zu erkennen, die sonst verborgen geblieben wären. Natürlich ist auch Datenqualität ein entscheidender Faktor. Denn nur mit sauberen und konsistenten Daten lassen sich aussagekräftige AI-Modelle erstellen. Wir diskutieren, wie Power BI-Tools zur Datenbereinigung und -transformation genutzt werden können, um sicherzustellen, dass deine Daten für AI-Analysen optimal vorbereitet sind. Außerdem sprechen wir darüber, wie Power BI als Reporting-Tool angefangen hat und sich jetzt zu einer umfassenden Plattform für Business Intelligence und maschinelles Lernen entwickelt hat. Das Zusammenspiel von Power BI und Azure ML ermöglicht es, in Echtzeit fundierte Entscheidungen zu treffen und Geschäftsprozesse zu optimieren. Freut euch auf interessante Einblicke, wie Diana, Andreas und Marcus ihre Erfahrungen mit der Integration von AI in Power BI teilen. Sie erklären, welche Vorteile dies für den BI-Alltag hat und wie es ihnen geholfen hat, noch bessere und präzisere Ergebnisse zu erzielen. Und wie immer gibt es die drei Dinge für den Nachhauseweg! Was sind eure Erfahrungen mit AI und Power BI? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen
-
#071 Wie baue ich eine BI-Community auf? Gast: Ulrik Harnisch
In dieser Podcast-Episode dreht sich alles darum, wie man erfolgreich eine Community aufbaut und managt. Wir starten mit der Frage: Wie baue ich eine Community auf? Dabei werfen wir einen Blick auf die wesentlichen Schritte – von der Entwicklung einer klaren Vision bis hin zur Auswahl der passenden Plattform und der Schaffung von Mehrwerten für die Mitglieder. Ulrik spricht über den persönlichen Einsatz, der notwendig ist, um eine Community lebendig zu machen und langfristig zu erhalten. Dabei geht es um die Wichtigkeit von aktiver Moderation, regelmäßiger Interaktion und persönlichem Engagement – das sind die Dinge, die wirklich den Unterschied ausmachen. Natürlich darf auch das Thema Engagement nicht fehlen! Wir besprechen, wie man Mitglieder motiviert und eine Kultur der aktiven Teilnahme fördert. Es gibt viele praktische Tipps, wie man eine lebendige und unterstützende Gemeinschaft aufbaut, in der sich jeder wohlfühlt und gerne mitmacht. Diese Episode ist vollgepackt mit wertvollen Einsichten für alle, die eine erfolgreiche Community gestalten möchten. Und was das Ganze mit den Beastie Boys zu tun hat? Hört einfach rein! Es ist an der Zeit, den Horizont zu erweitern und herauszufinden, welche Vorteile eine aktive Community bieten kann – besonders, wenn es darum geht, unseren BI-Alltag zu erleichtern. Seid gespannt, wie Andreas und Marcus im Gespräch mit Ulrik das Thema Community in Bezug auf ihr Lieblingsprodukt beleuchten. Sie teilen ihre Erfahrungen und Meinungen – und natürlich sind auch die drei Dinge für den Nachhauseweg wieder mit dabei! Was denkt ihr dazu? Wir freuen uns auf eure Meinungen!
-
#70 Wie bekommen wir die Daten sauber in unser BI-System?
In den letzten zehn Folgen haben wir uns mit zentralen Themen der Business Intelligence (BI) beschäftigt. Dazu gehörten die Trennung von Datenmodell und Visualisierung sowie die Einführung neuer Funktionen wie Direct Lake. Wir haben auch die Frage erörtert, ob Excel nach wie vor das beste BI-Werkzeug ist. Zudem haben wir diskutiert, ob es sinnvoller ist, BI-Lösungen zu kaufen oder selbst zu entwickeln, wie sich die Kosten für BI steuern lassen und ob es von Vorteil ist, ein Projekt aus einer Hand zu realisieren. Weitere Schwerpunkte waren die Quellen für Expertisen, das Verständnis von Datenprodukten und die Rolle von dbt. Wir haben uns auch damit beschäftigt, ob jeder die DAX-Sprache in Power BI beherrschen sollte. Ist jetzt noch Zeit für ein neues Thema? Nach diesem umfassenden Rückblick stellt sich die Frage, ob noch Raum für ein neues Thema bleibt. Die Antwort ist ein klares Ja. Um Daten sauber in ein BI-System zu integrieren, müssen mehrere Herausforderungen gemeistert werden. Eine der ersten Aufgaben besteht darin, die Datenlage zu bereinigen, indem überflüssige Informationen identifiziert und eliminiert werden. Dabei stellt sich die Frage, wie detailliert die Daten tatsächlich sein müssen, um wertvolle Erkenntnisse zu liefern, ohne das System zu überlasten. Die Wahl der richtigen Systeme spielt eine zentrale Rolle, da sie die Grundlage für eine nahtlose Datenintegration bilden. Verschiedene Datenstrukturen stellen dabei eine besondere Herausforderung dar, da sie harmonisiert werden müssen, um ein einheitliches und verwertbares Gesamtbild zu erzeugen. Bei der Einführung eines neuen Systems ist es entscheidend, die Altdatenübernahme sorgfältig zu planen, damit bestehende Informationen verlustfrei und korrekt in die neue Umgebung überführt werden können. All diese Aspekte tragen dazu bei, dass das BI-System sauber und effizient arbeitet, was die Grundlage für fundierte geschäftliche Entscheidungen bildet. Wie sehen es Andreas und Marcus? Sind wir derselben Meinung oder haben wir unterschiedliche Ansichten? Welche Erfahrungen haben wir in unseren BI-Projekten mit Datenaufbereitung und Bereitstellung gemacht? Gibt es unterschiedliche Herangehensweisen an das Thema? Hört mal rein was wir zu sagen haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#069 Muss in Power BI jeder DAX können?
Die Notwendigkeit, dass jeder in Power BI DAX beherrschen muss, hängt stark von der Struktur und den Anforderungen des jeweiligen Teams und Projekts ab. Während ein grundlegendes Verständnis von DAX für viele Teammitglieder nützlich sein kann, sind tiefergehende Kenntnisse vor allem für spezialisierte Rollen wie Datenanalysten und Datenmodellierer essenziell. Eine ausgewogene Verteilung der DAX-Kompetenzen und eine klare Rollenverteilung können die Effizienz und Qualität der Arbeit in Power BI-Projekten erheblich steigern. Letztlich sollte jede Organisation eine auf ihre spezifischen Bedürfnisse zugeschnittene Schulungs- und Kompetenzstrategie entwickeln. Argumente dafür: • Flexibilität und Unabhängigkeit: Alle Teammitglieder können selbständig arbeiten. • Bessere Zusammenarbeit: Gemeinsames Verständnis erleichtert die Kommunikation. • Effiziente Problemlösung: Schnellere Anpassungen und Fehlerbehebungen. • Höhere Qualität: Korrekte und optimierte Berechnungen durch das gesamte Team. Argumente dagegen: • Spezialisierung: Datenanalysten übernehmen komplexe Berechnungen, während andere sich auf ihre Kernkompetenzen konzentrieren. • Komplexität: DAX erfordert viel Lernaufwand, denn nicht jeder aufbringen kann oder möchte. • Ressourcenmanagement: Schulung aller Mitarbeiter kann teuer und zeitaufwendig sein. • Werkzeugvielfalt: Viele Power BI-Funktionen sind auch ohne tiefgehende DAX-Kenntnisse nutzbar. Nicht jeder muss DAX beherrschen. Während grundlegende Kenntnisse für viele hilfreich sind, sollten tiefergehende Fähigkeiten auf spezialisierte Rollen beschränkt bleiben. Eine ausgewogene Verteilung der DAX-Kompetenzen steigert die Effizienz und Qualität der Arbeit in Power BI-Projekten. Wie sehen es Andreas und Marcus? Sind sie derselben Meinung oder haben sie unterschiedliche Ansichten? Welche Erfahrungen haben sie in ihren BI-Projekten mit Power BI und DAX gemacht? Oder gibt es Bereiche, in denen sie unterschiedliche Meinungen haben? Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#067 Wie verstehen wir Datenprodukte?
Datenprodukte sind speziell entwickelte Anwendungen, Tools oder Systeme, die aus vorhandenen Daten nützliche Informationen und Erkenntnisse generieren. Sie entstehen durch Prozesse, die Daten sammeln, verarbeiten, analysieren und präsentieren, um sie für Nutzer wertvoll und zugänglich zu machen. Aber ist das wirklich alles? Gibt es klare Definitionen, was dazu gehört, wie beispielsweise Berichte, Dashboards, Algorithmen, APIs oder ganze Analytikplattformen? Oder sind diese Themen unterschiedlich, weil jeder eine andere Sicht auf die Inhalte von Datenprodukten hat? Beginnt man mit der Sammlung von Daten aus unterschiedlichen Quellen oder klar festgelegten Systemen? Obwohl diese Themen für den Endverbraucher oft uninteressant sind, sind sie entscheidend für die Qualität und Inhalte der Datenprodukte. Welche Perspektiven gibt es bei der Erstellung und Nutzung von Datenprodukten? Aus Sicht des Erstellers eines Datenprodukts sind mehrere Elemente wichtig. Dazu gehören ein Prüfsiegel zur Qualitätssicherung, eine klare Spezifikation der Anforderungen, ein Handbuch zur Nutzung und die Bewerbung des Produkts. Aus Sicht des Konsumenten liegt der Schwerpunkt auf der Bedienbarkeit. Ein Datenprodukt muss so gestaltet sein, dass der Nutzer es leicht verstehen und anwenden kann, um die Akzeptanz zu maximieren. Datenprodukte sollen dazu beitragen, datengetriebene Entscheidungen zu erleichtern und die Effizienz sowie die Genauigkeit von Geschäftsprozessen zu steigern. Sehen Andreas und Marcus das genauso wie viele Experten oder haben sie dazu eine andere Meinung? Welche Erfahrungen haben sie in Ihren BI-Projekten damit gemacht? Natürlich gibt es auch wieder drei interessante Takeaways für euch!