Startseite » Self-Service
Schlagwort: Self-Service
-
#092 Sollte jeder Self Service machen?
Self Service für alle? Chancen, Risiken und der richtige Einstieg Self Service klingt nach Freiheit, Effizienz und direktem Zugriff auf Daten, doch ist es für jeden geeignet? In dieser Episode diskutieren wir, wie niedrig die Einstiegshürden wirklich sein sollten, ob eine Schulung verpflichtend sein muss und wie man mit der unausweichlichen Schatten-IT umgehen kann. Außerdem: Ist „Dashboard in a Day“ ein guter Start? Kann jeder Self Service und sollte es jeder dürfen? Self Service eröffnet Fachanwenderinnen ganz neue Möglichkeiten. Daten analysieren, Dashboards bauen, Erkenntnisse gewinnen und das ohne langes Warten auf die IT. Aber nicht jeder hat die nötige Erfahrung oder das Verständnis für Datenqualität, Modellierung und Governance. Die Technik ist einfach, aber die Verantwortung bleibt komplex. Brauchen wir eine Art „Führerschein“ für Self Service? Die Frage ist provokant, aber legitim. Sollte man einfach loslegen dürfen oder braucht es eine Basisqualifikation? Ein Datenführerschein klingt bürokratisch, könnte aber helfen, Risiken wie Fehlinterpretationen oder Datenchaos zu vermeiden. Denn Self Service ohne Schulung ist wie Autofahren ohne Fahrschule. Man kommt voran, aber das Risiko steigt. Schatten-IT – unvermeidbar oder steuerbar? Die Realität ist klar. Wenn zentrale Lösungen zu träge sind, holen sich Fachbereiche ihre Tools selbst, ob erlaubt oder nicht. Schatten-IT ist oft kein böser Wille, sondern Ausdruck von Pragmatismus. Der bessere Weg: Hürden senken, sinnvolle Governance etablieren und den Dialog mit den Fachbereichen suchen, denn die Leute werden es sich sowieso holen. Wie fängt man an und wie hoch ist die Lernkurve? Ein gutes Onboarding ist entscheidend. „Dashboard in a Day“ ist dafür ein beliebter Einstieg. Kompakt, praxisnah, und es vermittelt zentrale Konzepte. Aber es bleibt dabei nicht. Wer tiefer einsteigen will, muss sich mit Datenmodellen, DAX, Sicherheit und Performance beschäftigen. Die Lernkurve ist da, aber mit den richtigen Formaten gut zu meistern. Self Service ist kein Selbstläufer So groß die Potenziale sind, Self Service ist keine Plug-&-Play-Lösung. Es braucht klare Rahmenbedingungen, Schulungsangebote, Unterstützer und Governance. Die Tools sind da, die Begeisterung auch, jetzt kommt es auf Strukturen an, die beides zusammenbringen. Unsere drei Learnings sind auch wieder dabei, hört mal rein. Diskussionsfragen an euch: • Welche Einstiegspunkte funktionieren in euren Organisationen? (z. B. „Dashboard in a Day“) • Wo zieht ihr die Grenze zwischen Empowerment und Kontrolle? • Wer sollte Self Service machen dürfen? Jede*r, oder nur mit Schulung? • Wie geht ihr mit Schatten-IT um? Verbieten, dulden oder integrieren? Wir freuen uns auf eure Meinungen und Erfahrungen!
-
#091 Was kann Translytical?
Was kann Translytical Data Flow eigentlich genau leisten? In dieser Folge tauchen wir in das Konzept ein, das die klassische Trennung zwischen Analyse und operativen Prozessen auflösen kann? Wir beleuchten, wie dieser Ansatz in der Praxis funktioniert, welche technischen Voraussetzungen nötig sind und wo die größten Chancen und Herausforderungen liegen. Besonders überzeugend war ein Tutorial, das wir ausprobiert haben: Es macht die Funktionsweise direkt greifbar, weil man sofort selbst mit echten Daten arbeiten kann. Diese unmittelbare Umsetzbarkeit hilft Teams, schneller zu verstehen, wie sie Translytical Data Flow sinnvoll in ihre Systeme integrieren können. Doch es gibt auch Grenzen: Eine Logikfunktion fehlt aktuell, was komplexe Entscheidungsregeln erschwert. Hier bleibt es spannend, ob und wie das Feature weiterentwickelt wird und die Community Wünsche und Input liefert. Der Gedanke, dass Datenprozesse nicht mehr „nachgelagert“ sind, sondern Teil der eigentlichen Anwendung werden machen es interessant, oder? Und ganz klar: Planungsapplikationen in Power BI kann Translytical Data Flow (noch) nicht ersetzen. Es fehlen zentrale Funktionen wie: • Splashing (Werteverteilung auf einzelne Ebenen) • Verteilen von Planwerten auf Benutzer oder Organisationseinheiten • Master-Data-Pflege, also das strukturierte Management von Stammdaten Drei Erkenntnisse und Tipps aus der Folge: 1. Gute Tutorials mit Live-Interaktion fördern schnelles Verständnis. 2. User Data Functions und Filterobjekte eröffnen neue Anwendungsfelder. 3. Low Code / No Code senkt die Einstiegshürden aber komplexe Logiken brauchen noch Ergänzung. Diskussionsfragen an euch: • Welche Use Cases für Translytical Data Flow seht ihr in eurem Unternehmen? • Nutzt ihr bereits User Data Functions oder ähnliche Ansätze in eurer Datenanalyse? • Low Code / No Code-Ansatz, der schnelle Entwicklung erlaubt, auch für Fachanwender? • Welche Anforderungen habt ihr an Logikfunktionen in Echtzeitanwendungen? Wir freuen uns auf eure Ideen, Erfahrungen und Fragen!
-
#089 Wer weiß was?
Je digitaler unsere Arbeitswelt wird, desto wichtiger ist die zentrale Frage: Wer weiß was? Oft liegt entscheidendes Know-how bei Einzelnen ungeteilt, unausgesprochen, unbewusst. Dabei entsteht echte Souveränität nicht allein durch Technik, sondern durch das Teilen von Wissen. In einer Welt, in der Dienste, Daten und Prozesse ständig wachsen, muss Wissen bewusst gemacht und zugänglich sein. Nur wer sich regelmäßig mit Kolleginnen und Kollegen austauscht, kann informierte Entscheidungen treffen über Systeme, Verantwortlichkeiten und Risiken. Denn Wissen wirkt nur dann, wenn es weitergegeben, hinterfragt und gemeinsam weiterentwickelt wird. Wissenssouveränität entsteht im Team Andreas und Marcus bringen zwei Perspektiven in den Austausch ein: Andreas stellt die Frage nach Verantwortung: Für ihn ist es zentral, dass alle Beteiligten verstehen, wer auf welche Informationen Zugriff hat und wie Wissen klassifiziert wird bevor Projekte starten. Marcus bringt die technische Seite ein für ihn zählt, dass Wissen dokumentiert, zugänglich und portabel ist, sodass Teams bei Bedarf unabhängig agieren können. Was uns beide verbindet: Wir setzen auf transparente Kommunikation, klare Rollen und den Willen, gegenseitig voneinander zu lernen, statt sich auf Einzellösungen oder Spezialwissen zu verlassen. Drei Impulse für mehr Wissenshoheit im Team 1. Wissen sichtbar machen Wer weiß was – und wo fehlt etwas? Erst Transparenz schafft Handlungsfähigkeit. 2. Austausch fördern Regelmäßige Gespräche im Team helfen, Wissen zu verbreitern, auch über Fachgrenzen hinweg. 3. Verantwortung teilen Wenn alle wissen, worauf es ankommt, kann Verantwortung auch gemeinsam getragen werden. Jetzt seid ihr gefragt • Wie gelingt es euch im Alltag, Wissen zu teilen und weiterzugeben? • Welche Formate oder Tools nutzt ihr, um Wissen zugänglich zu machen? • Wo seht ihr Potenziale und vielleicht auch Blockaden im Austausch? Teilt eure Erfahrungen, denn Wissenshoheit entsteht, wenn wir reden, zuhören und voneinander lernen.
-
#087 Was waren unsere FabCon Highlights?
icrosoft Fabric ermöglicht jetzt KI-Features bereits in kleineren Kapazitäten – aber wie sinnvoll sind diese Features im echten Arbeitsalltag? Wir hinterfragen kritisch, ob die Umbenennung der „KI Skills“ in „Agents“ einen echten Mehrwert bietet und warum das Timing kurz vor dem 1. April möglicherweise etwas unglücklich war. Weitere Themen sind der Copilot, der eigenständig innerhalb des Teams mit relevanten Daten antwortet, sowie der Überspannungsschutz, der unbemerkt im Hintergrund agiert. Wir diskutieren, wie Autoscaling für Spark effizient Ressourcen bereitstellt und Kosten optimiert. Besonderes Augenmerk legen wir auf die Sicherheitsaspekte von OneLake Security: Welche Schutzmechanismen bietet Microsoft Fabric, um sensible Unternehmensdaten sicher zu speichern? Kann Fabric durch fein abgestufte Berechtigungen überzeugen und welche Herausforderungen lassen sich dadurch effektiv meistern? Zudem werfen wir einen Blick auf praktische Neuerungen wie den COPY Job, der nun die passenden Features in Fabric-Pipelines bringt, die Einsatzmöglichkeiten von User Defined Functions und die Integration mit Git. Wir sprechen außerdem darüber, ob die Vielzahl der Konferenzen wirklich dabei hilft, Neuerungen gezielt zu vermitteln oder ob weniger manchmal mehr ist. Nicht zuletzt diskutieren wir den immer relevanten Konflikt: Setzen wir lieber auf individuelle Freiheit in der Datenanalyse oder bevorzugen wir standardisierten Business Content „von der Stange“? Ganz nebenbei erinnern wir uns daran, dass schon die Italiener vor Jahrhunderten die Buchhaltung erfunden haben. Wie immer gibt es drei praktische Tipps für den Nachhauseweg oder machen wir es diesmal anders? Wir freuen uns auf eure Meinung zu diesen Themen: Welche Highlights von der FabCon waren für euch besonders relevant? Wie bewertet ihr die Nützlichkeit der KI-Features in kleinen Kapazitäten? Sind die neuen „Agents“ wirklich eine Verbesserung? Wie setzt ihr Copilot, Autoscaling oder Git Integration praktisch ein? Wie zufrieden seid ihr mit der OneLake-Security? Bevorzugt ihr eher freie, flexible Lösungen oder Business Content von der Stange? War der Release-Termin kurz vor dem 1. April clever gewählt? Lasst uns eure Erfahrungen wissen und steigt mit uns in die Diskussion ein!
-
#086 Wie nutze ich Fabric einfach, kontrolliert und kosteneffizient?
In dieser Podcast-Episode diskutieren wir intensiv über Microsoft Fabric und die zentrale Frage: Ist Fabric tatsächlich das „Waschen ohne nass zu werden“ der BI-Welt? Früher hatten wir unsere eigenen Server, on Premises, individuell konfiguriert und sogar mit Namen versehen. Doch davon müssen wir uns langsam verabschieden. Die Zukunft gehört Plattformen, bei denen jeder Wunsch erfüllt wird – sei es Notebooks für Analysten, SQL-Datenbanken für Entwickler oder umfassendes Dateimanagement über integrierte Warehouse-Lösungen. Wir sprechen darüber, ob das ständig wachsende Angebot neuer Features tatsächlich hilft oder ob wir uns nicht doch lieber eine einfache, verlässliche Oberfläche wünschen, die „einfach funktioniert“. Denn nicht immer braucht man gleich eine Power BI Premium Lizenz – oder gar die leistungsstarke F64-Kapazität die auch gleich die KI-Features mitbringt. Dabei werfen wir auch einen Blick auf das Lakehouse-Konzept, das mit seinen Spark-Notebooks neue analytische Möglichkeiten bietet. Doch wann ist der richtige Moment, von traditionellen Lösungen auf ein Lakehouse zu wechseln? Vielleicht lautet die Antwort: „Dann gehe ich doch erstmal Richtung Lakehouse!“ Wir gehen auf die Vor- und Nachteile ein, wenn alles „in der Box“ verfügbar ist. Welche Erfahrungen machen Unternehmen und Analysten, wenn sie traditionelle Infrastrukturen verlassen und zu Fabric wechseln? Können Anforderungen wirklich flexibler und effizienter erfüllt werden oder führt die Fülle an Möglichkeiten eher zu Überforderung? Wie sehen Andreas und Marcus das Thema? Haben wir es hier mit einer echten Revolution im Datenmanagement zu tun oder ist es nur eine vorübergehende Entwicklung? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion • Kennt ihr noch eure Server „on Prem“ und gebt ihr ihnen immer noch Namen? • Wie seht ihr den Wandel von klassischen Server on Prem hin zu Cloud-Lösungen wie Fabric? • Glaubt ihr, dass Microsoft Fabric tatsächlich alle Bedürfnisse von Analysten und Entwicklern erfüllt? • Welche Erfahrungen habt ihr mit dem „Alles in der Box“-Ansatz gemacht, wo jedes Tool für Analysten und Entwickler direkt verfügbar ist? • Wann entscheidet ihr euch für eine Power BI Pro Lizenz oder sogar für eine F64-Kapazität – braucht man das immer? • Seid ihr schon auf dem Weg Richtung Lakehouse und wie sind eure Erfahrungen mit Spark-Notebooks? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#085 Wie kann ich mein Power BI automatisiert testen?
In dieser Podcast-Episode fokussieren wir uns auf das Thema automatisiertes Testing in Power BI-Projekten. Wir diskutieren, warum automatisierte Tests entscheidend sind, um eine hohe Datenqualität und Performance sicherzustellen, und wie sie professionell implementiert werden können. Besonderes Augenmerk liegt auf der Nutzung von Unit Tests und klar definierten Testfällen, um Kundenanforderungen zuverlässig abzubilden und Projektanforderungen effektiv zu dokumentieren. Wir sprechen auch darüber, warum es essenziell ist, dass Testverfahren gut dokumentiert sind und wie professionelle Entwicklungsprozesse dadurch unterstützt werden. Zudem gehen wir auf die Implementierung eines Regelwerks in dbt ein, das durch standardisierte Prozesse eine konsistente Datenverarbeitung sicherstellt. Welche Erfahrungen haben wir und andere Tester in diesem Bereich gemacht? Wie unterscheiden sich verschiedene Ansätze hinsichtlich Granularität, Performance und Qualität der Ergebnisse? Wie sehen Andreas und Marcus das Thema automatisiertes Testing? Welche Methoden haben sich bewährt und welche Auswirkungen hat eine professionelle Teststrategie auf BI-Projekte? Und wie immer gibt es die drei Dinge für den Nachhauseweg! Möchtet ihr mit uns ins Gespräch kommen? Hier sind ein paar Fragen zur Diskussion: • Welche Methoden nutzt ihr für automatisiertes Testing in euren BI-Projekten? • Wie integriert ihr Unit Tests in eure Power BI-Modelle? • Wie dokumentiert ihr Testfälle und sorgt dafür, dass die Anforderungen der Kunden erfüllt werden? • Welche Erfahrungen habt ihr mit der Implementierung eines Regelwerks in dbt gemacht? Wir freuen uns auf eure Meinungen und eine spannende Diskussion!
-
#084 Wie viel Trennung zwischen Dev und Prod in Power BI? Gast:Ulrik Harnisch
Power BI ermöglicht schnelle Analysen und flexible Berichte – doch wo liegt die Grenze zwischen Self-Service und professioneller BI-Entwicklung? Marcus und Ulrik diskutieren, ob getrennte Entwicklungs-, Test- und Produktivumgebungen in Power BI wirklich notwendig sind oder ob sie den Prozess unnötig verkomplizieren. Die zentrale Frage: Wie lassen sich schnelle Anpassungen ohne Risiko umsetzen? Während im klassischen Software-Development klare Strukturen existieren, setzen viele Unternehmen in Power BI immer noch auf spontane Änderungen direkt in der Produktionsumgebung. Doch was passiert, wenn kleine Anpassungen unerwartet große Auswirkungen haben? Wir beleuchten Best Practices zur Versionierung, die Herausforderungen beim Deployment und mögliche Automatisierungen, um den Entwicklungsprozess effizienter zu gestalten. Außerdem klären wir, ob Power BI sich noch im reinen Self-Service bewegt oder bereits professionelle Entwicklungsstandards benötigt. Wie sehen es Marcus und Ulrik? Sind sie sich einig oder haben sie unterschiedliche Perspektiven? Welche Erfahrungen haben sie in Projekten gemacht? Gibt es eine goldene Mitte zwischen Kontrolle und Flexibilität? Hört rein, um die Antwort zu finden! Natürlich gibt es auch wieder drei spannende Takeaways für euch!
-
#076 Wer stellt die BI Anforderungen im Zeitalter der KI?
Wer stellt die Anforderungen für BI-Projekte im Zeitalter der KI, und wie wichtig ist ein passendes Datenmodell wirklich? Kann KI Strukturen effizienter gestalten, irrelevante Daten herausfiltern und die wichtigsten Dimensionen und Fakten gezielt kombinieren? Doch wie weit reicht diese Unterstützung tatsächlich? Kann die KI eigenständig Berichte und Strukturen erstellen, oder ist weiterhin menschliche Expertise gefragt, um den Kontext sinnvoll zu gestalten? Obwohl sich die Technologie schnell weiterentwickelt, bleibt die Frage: Was kann die KI übernehmen, und wo sind klare Vorgaben und Erwartungen unsererseits gefragt? Welche spezifischen Anforderungen sind notwendig, um moderne BI-Projekte erfolgreich umzusetzen? KI-gestützte Berichtsgeneratoren und inspirierende neue Designs versprechen Effizienz und Benutzerfreundlichkeit – aber was bewährt sich wirklich in der Praxis, und was bleibt lediglich ein schönes Konzept? Werden die wichtigen Informationen hervorgehoben und überflüssige Details ausgeblendet? Führt die KI zu einem klaren, intuitiven Überblick, der fundierte Entscheidungen unterstützt? Und lassen sich durch passende Berichtsvorlagen oder inspirierende neue Entwürfe Berichte gestalten, die sowohl visuell ansprechend als auch funktional sind? Was geben wir vor, und was möchten wir sehen? Freue dich auf wertvolle Einblicke von Andreas und Marcus, die ihre Erfahrungen mit KI-gestütztem BI teilen. Sie geben Tipps zur Strukturoptimierung, zur Nutzung von Berichtsgeneratoren und zur Auswahl geeigneter Dimensionen und Filter, um die User Experience zu maximieren. Natürlich gibt es auch wieder drei zentrale Key Takeaways für den praktischen Einsatz!
-
#074 Wie kombiniert man Power BI mit AI? Gast: Diana Ackermann
In dieser Podcast-Episode geht es darum, wie Power BI als mächtiges Werkzeug für AI-gestützte Analysen und maschinelles Lernen eingesetzt werden kann. Ursprünglich oft als reines ETL- und Reporting-Tool gesehen, hat sich Power BI inzwischen stark weiterentwickelt. Wir beleuchten die Frage: Wie kombiniere ich Power BI mit AI, um tiefere Einblicke zu gewinnen? Ein zentraler Aspekt dieser Entwicklung ist die Integration von Azure Machine Learning. Mithilfe dieser Plattform können Benutzer AI-Modelle erstellen und direkt in ihre Berichte und Dashboards integrieren. Wir diskutieren, wie Azure ML dir dabei helfen kann, prädiktive Analysen durchzuführen und Muster in deinen Daten zu erkennen, die sonst verborgen geblieben wären. Natürlich ist auch Datenqualität ein entscheidender Faktor. Denn nur mit sauberen und konsistenten Daten lassen sich aussagekräftige AI-Modelle erstellen. Wir diskutieren, wie Power BI-Tools zur Datenbereinigung und -transformation genutzt werden können, um sicherzustellen, dass deine Daten für AI-Analysen optimal vorbereitet sind. Außerdem sprechen wir darüber, wie Power BI als Reporting-Tool angefangen hat und sich jetzt zu einer umfassenden Plattform für Business Intelligence und maschinelles Lernen entwickelt hat. Das Zusammenspiel von Power BI und Azure ML ermöglicht es, in Echtzeit fundierte Entscheidungen zu treffen und Geschäftsprozesse zu optimieren. Freut euch auf interessante Einblicke, wie Diana, Andreas und Marcus ihre Erfahrungen mit der Integration von AI in Power BI teilen. Sie erklären, welche Vorteile dies für den BI-Alltag hat und wie es ihnen geholfen hat, noch bessere und präzisere Ergebnisse zu erzielen. Und wie immer gibt es die drei Dinge für den Nachhauseweg! Was sind eure Erfahrungen mit AI und Power BI? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen
-
#071 Wie baue ich eine BI-Community auf? Gast: Ulrik Harnisch
In dieser Podcast-Episode dreht sich alles darum, wie man erfolgreich eine Community aufbaut und managt. Wir starten mit der Frage: Wie baue ich eine Community auf? Dabei werfen wir einen Blick auf die wesentlichen Schritte – von der Entwicklung einer klaren Vision bis hin zur Auswahl der passenden Plattform und der Schaffung von Mehrwerten für die Mitglieder. Ulrik spricht über den persönlichen Einsatz, der notwendig ist, um eine Community lebendig zu machen und langfristig zu erhalten. Dabei geht es um die Wichtigkeit von aktiver Moderation, regelmäßiger Interaktion und persönlichem Engagement – das sind die Dinge, die wirklich den Unterschied ausmachen. Natürlich darf auch das Thema Engagement nicht fehlen! Wir besprechen, wie man Mitglieder motiviert und eine Kultur der aktiven Teilnahme fördert. Es gibt viele praktische Tipps, wie man eine lebendige und unterstützende Gemeinschaft aufbaut, in der sich jeder wohlfühlt und gerne mitmacht. Diese Episode ist vollgepackt mit wertvollen Einsichten für alle, die eine erfolgreiche Community gestalten möchten. Und was das Ganze mit den Beastie Boys zu tun hat? Hört einfach rein! Es ist an der Zeit, den Horizont zu erweitern und herauszufinden, welche Vorteile eine aktive Community bieten kann – besonders, wenn es darum geht, unseren BI-Alltag zu erleichtern. Seid gespannt, wie Andreas und Marcus im Gespräch mit Ulrik das Thema Community in Bezug auf ihr Lieblingsprodukt beleuchten. Sie teilen ihre Erfahrungen und Meinungen – und natürlich sind auch die drei Dinge für den Nachhauseweg wieder mit dabei! Was denkt ihr dazu? Wir freuen uns auf eure Meinungen!