Startseite » Self-Service
Schlagwort: Self-Service
-
#076 Wer stellt die BI Anforderungen im Zeitalter der KI?
Wer stellt die Anforderungen für BI-Projekte im Zeitalter der KI, und wie wichtig ist ein passendes Datenmodell wirklich? Kann KI Strukturen effizienter gestalten, irrelevante Daten herausfiltern und die wichtigsten Dimensionen und Fakten gezielt kombinieren? Doch wie weit reicht diese Unterstützung tatsächlich? Kann die KI eigenständig Berichte und Strukturen erstellen, oder ist weiterhin menschliche Expertise gefragt, um den Kontext sinnvoll zu gestalten? Obwohl sich die Technologie schnell weiterentwickelt, bleibt die Frage: Was kann die KI übernehmen, und wo sind klare Vorgaben und Erwartungen unsererseits gefragt? Welche spezifischen Anforderungen sind notwendig, um moderne BI-Projekte erfolgreich umzusetzen? KI-gestützte Berichtsgeneratoren und inspirierende neue Designs versprechen Effizienz und Benutzerfreundlichkeit – aber was bewährt sich wirklich in der Praxis, und was bleibt lediglich ein schönes Konzept? Werden die wichtigen Informationen hervorgehoben und überflüssige Details ausgeblendet? Führt die KI zu einem klaren, intuitiven Überblick, der fundierte Entscheidungen unterstützt? Und lassen sich durch passende Berichtsvorlagen oder inspirierende neue Entwürfe Berichte gestalten, die sowohl visuell ansprechend als auch funktional sind? Was geben wir vor, und was möchten wir sehen? Freue dich auf wertvolle Einblicke von Andreas und Marcus, die ihre Erfahrungen mit KI-gestütztem BI teilen. Sie geben Tipps zur Strukturoptimierung, zur Nutzung von Berichtsgeneratoren und zur Auswahl geeigneter Dimensionen und Filter, um die User Experience zu maximieren. Natürlich gibt es auch wieder drei zentrale Key Takeaways für den praktischen Einsatz!
-
#074 Wie kombiniert man Power BI mit AI? Gast: Diana Ackermann
In dieser Podcast-Episode geht es darum, wie Power BI als mächtiges Werkzeug für AI-gestützte Analysen und maschinelles Lernen eingesetzt werden kann. Ursprünglich oft als reines ETL- und Reporting-Tool gesehen, hat sich Power BI inzwischen stark weiterentwickelt. Wir beleuchten die Frage: Wie kombiniere ich Power BI mit AI, um tiefere Einblicke zu gewinnen? Ein zentraler Aspekt dieser Entwicklung ist die Integration von Azure Machine Learning. Mithilfe dieser Plattform können Benutzer AI-Modelle erstellen und direkt in ihre Berichte und Dashboards integrieren. Wir diskutieren, wie Azure ML dir dabei helfen kann, prädiktive Analysen durchzuführen und Muster in deinen Daten zu erkennen, die sonst verborgen geblieben wären. Natürlich ist auch Datenqualität ein entscheidender Faktor. Denn nur mit sauberen und konsistenten Daten lassen sich aussagekräftige AI-Modelle erstellen. Wir diskutieren, wie Power BI-Tools zur Datenbereinigung und -transformation genutzt werden können, um sicherzustellen, dass deine Daten für AI-Analysen optimal vorbereitet sind. Außerdem sprechen wir darüber, wie Power BI als Reporting-Tool angefangen hat und sich jetzt zu einer umfassenden Plattform für Business Intelligence und maschinelles Lernen entwickelt hat. Das Zusammenspiel von Power BI und Azure ML ermöglicht es, in Echtzeit fundierte Entscheidungen zu treffen und Geschäftsprozesse zu optimieren. Freut euch auf interessante Einblicke, wie Diana, Andreas und Marcus ihre Erfahrungen mit der Integration von AI in Power BI teilen. Sie erklären, welche Vorteile dies für den BI-Alltag hat und wie es ihnen geholfen hat, noch bessere und präzisere Ergebnisse zu erzielen. Und wie immer gibt es die drei Dinge für den Nachhauseweg! Was sind eure Erfahrungen mit AI und Power BI? Lasst es uns wissen! Wir freuen uns auf eure Meinungen und Diskussionen
-
#071 Wie baue ich eine BI-Community auf? Gast: Ulrik Harnisch
In dieser Podcast-Episode dreht sich alles darum, wie man erfolgreich eine Community aufbaut und managt. Wir starten mit der Frage: Wie baue ich eine Community auf? Dabei werfen wir einen Blick auf die wesentlichen Schritte – von der Entwicklung einer klaren Vision bis hin zur Auswahl der passenden Plattform und der Schaffung von Mehrwerten für die Mitglieder. Ulrik spricht über den persönlichen Einsatz, der notwendig ist, um eine Community lebendig zu machen und langfristig zu erhalten. Dabei geht es um die Wichtigkeit von aktiver Moderation, regelmäßiger Interaktion und persönlichem Engagement – das sind die Dinge, die wirklich den Unterschied ausmachen. Natürlich darf auch das Thema Engagement nicht fehlen! Wir besprechen, wie man Mitglieder motiviert und eine Kultur der aktiven Teilnahme fördert. Es gibt viele praktische Tipps, wie man eine lebendige und unterstützende Gemeinschaft aufbaut, in der sich jeder wohlfühlt und gerne mitmacht. Diese Episode ist vollgepackt mit wertvollen Einsichten für alle, die eine erfolgreiche Community gestalten möchten. Und was das Ganze mit den Beastie Boys zu tun hat? Hört einfach rein! Es ist an der Zeit, den Horizont zu erweitern und herauszufinden, welche Vorteile eine aktive Community bieten kann – besonders, wenn es darum geht, unseren BI-Alltag zu erleichtern. Seid gespannt, wie Andreas und Marcus im Gespräch mit Ulrik das Thema Community in Bezug auf ihr Lieblingsprodukt beleuchten. Sie teilen ihre Erfahrungen und Meinungen – und natürlich sind auch die drei Dinge für den Nachhauseweg wieder mit dabei! Was denkt ihr dazu? Wir freuen uns auf eure Meinungen!
-
#70 Wie bekommen wir die Daten sauber in unser BI-System?
In den letzten zehn Folgen haben wir uns mit zentralen Themen der Business Intelligence (BI) beschäftigt. Dazu gehörten die Trennung von Datenmodell und Visualisierung sowie die Einführung neuer Funktionen wie Direct Lake. Wir haben auch die Frage erörtert, ob Excel nach wie vor das beste BI-Werkzeug ist. Zudem haben wir diskutiert, ob es sinnvoller ist, BI-Lösungen zu kaufen oder selbst zu entwickeln, wie sich die Kosten für BI steuern lassen und ob es von Vorteil ist, ein Projekt aus einer Hand zu realisieren. Weitere Schwerpunkte waren die Quellen für Expertisen, das Verständnis von Datenprodukten und die Rolle von dbt. Wir haben uns auch damit beschäftigt, ob jeder die DAX-Sprache in Power BI beherrschen sollte. Ist jetzt noch Zeit für ein neues Thema? Nach diesem umfassenden Rückblick stellt sich die Frage, ob noch Raum für ein neues Thema bleibt. Die Antwort ist ein klares Ja. Um Daten sauber in ein BI-System zu integrieren, müssen mehrere Herausforderungen gemeistert werden. Eine der ersten Aufgaben besteht darin, die Datenlage zu bereinigen, indem überflüssige Informationen identifiziert und eliminiert werden. Dabei stellt sich die Frage, wie detailliert die Daten tatsächlich sein müssen, um wertvolle Erkenntnisse zu liefern, ohne das System zu überlasten. Die Wahl der richtigen Systeme spielt eine zentrale Rolle, da sie die Grundlage für eine nahtlose Datenintegration bilden. Verschiedene Datenstrukturen stellen dabei eine besondere Herausforderung dar, da sie harmonisiert werden müssen, um ein einheitliches und verwertbares Gesamtbild zu erzeugen. Bei der Einführung eines neuen Systems ist es entscheidend, die Altdatenübernahme sorgfältig zu planen, damit bestehende Informationen verlustfrei und korrekt in die neue Umgebung überführt werden können. All diese Aspekte tragen dazu bei, dass das BI-System sauber und effizient arbeitet, was die Grundlage für fundierte geschäftliche Entscheidungen bildet. Wie sehen es Andreas und Marcus? Sind wir derselben Meinung oder haben wir unterschiedliche Ansichten? Welche Erfahrungen haben wir in unseren BI-Projekten mit Datenaufbereitung und Bereitstellung gemacht? Gibt es unterschiedliche Herangehensweisen an das Thema? Hört mal rein was wir zu sagen haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#069 Muss in Power BI jeder DAX können?
Die Notwendigkeit, dass jeder in Power BI DAX beherrschen muss, hängt stark von der Struktur und den Anforderungen des jeweiligen Teams und Projekts ab. Während ein grundlegendes Verständnis von DAX für viele Teammitglieder nützlich sein kann, sind tiefergehende Kenntnisse vor allem für spezialisierte Rollen wie Datenanalysten und Datenmodellierer essenziell. Eine ausgewogene Verteilung der DAX-Kompetenzen und eine klare Rollenverteilung können die Effizienz und Qualität der Arbeit in Power BI-Projekten erheblich steigern. Letztlich sollte jede Organisation eine auf ihre spezifischen Bedürfnisse zugeschnittene Schulungs- und Kompetenzstrategie entwickeln. Argumente dafür: • Flexibilität und Unabhängigkeit: Alle Teammitglieder können selbständig arbeiten. • Bessere Zusammenarbeit: Gemeinsames Verständnis erleichtert die Kommunikation. • Effiziente Problemlösung: Schnellere Anpassungen und Fehlerbehebungen. • Höhere Qualität: Korrekte und optimierte Berechnungen durch das gesamte Team. Argumente dagegen: • Spezialisierung: Datenanalysten übernehmen komplexe Berechnungen, während andere sich auf ihre Kernkompetenzen konzentrieren. • Komplexität: DAX erfordert viel Lernaufwand, denn nicht jeder aufbringen kann oder möchte. • Ressourcenmanagement: Schulung aller Mitarbeiter kann teuer und zeitaufwendig sein. • Werkzeugvielfalt: Viele Power BI-Funktionen sind auch ohne tiefgehende DAX-Kenntnisse nutzbar. Nicht jeder muss DAX beherrschen. Während grundlegende Kenntnisse für viele hilfreich sind, sollten tiefergehende Fähigkeiten auf spezialisierte Rollen beschränkt bleiben. Eine ausgewogene Verteilung der DAX-Kompetenzen steigert die Effizienz und Qualität der Arbeit in Power BI-Projekten. Wie sehen es Andreas und Marcus? Sind sie derselben Meinung oder haben sie unterschiedliche Ansichten? Welche Erfahrungen haben sie in ihren BI-Projekten mit Power BI und DAX gemacht? Oder gibt es Bereiche, in denen sie unterschiedliche Meinungen haben? Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#067 Wie verstehen wir Datenprodukte?
Datenprodukte sind speziell entwickelte Anwendungen, Tools oder Systeme, die aus vorhandenen Daten nützliche Informationen und Erkenntnisse generieren. Sie entstehen durch Prozesse, die Daten sammeln, verarbeiten, analysieren und präsentieren, um sie für Nutzer wertvoll und zugänglich zu machen. Aber ist das wirklich alles? Gibt es klare Definitionen, was dazu gehört, wie beispielsweise Berichte, Dashboards, Algorithmen, APIs oder ganze Analytikplattformen? Oder sind diese Themen unterschiedlich, weil jeder eine andere Sicht auf die Inhalte von Datenprodukten hat? Beginnt man mit der Sammlung von Daten aus unterschiedlichen Quellen oder klar festgelegten Systemen? Obwohl diese Themen für den Endverbraucher oft uninteressant sind, sind sie entscheidend für die Qualität und Inhalte der Datenprodukte. Welche Perspektiven gibt es bei der Erstellung und Nutzung von Datenprodukten? Aus Sicht des Erstellers eines Datenprodukts sind mehrere Elemente wichtig. Dazu gehören ein Prüfsiegel zur Qualitätssicherung, eine klare Spezifikation der Anforderungen, ein Handbuch zur Nutzung und die Bewerbung des Produkts. Aus Sicht des Konsumenten liegt der Schwerpunkt auf der Bedienbarkeit. Ein Datenprodukt muss so gestaltet sein, dass der Nutzer es leicht verstehen und anwenden kann, um die Akzeptanz zu maximieren. Datenprodukte sollen dazu beitragen, datengetriebene Entscheidungen zu erleichtern und die Effizienz sowie die Genauigkeit von Geschäftsprozessen zu steigern. Sehen Andreas und Marcus das genauso wie viele Experten oder haben sie dazu eine andere Meinung? Welche Erfahrungen haben sie in Ihren BI-Projekten damit gemacht? Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#063 Kaufen oder selber machen?
In der komplexen Welt des Business Intelligence (BI) steht man oft vor der grundlegenden Entscheidung: Soll man eine Lösung kaufen oder selbst entwickeln? Diese Entscheidung hängt von einer Vielzahl von Faktoren ab und ist selten einfach zu treffen. Es ist eine "It depends"-Entscheidung, die von vielen Variablen beeinflusst wird. Ein wichtiger Aspekt bei dieser Entscheidung sind die Kosten. Doch dieser umfasst weit mehr als nur den reinen finanziellen Aufwand. Natürlich spielen Budgetbeschränkungen eine Rolle, aber auch Zeit, Ressourcen und die langfristige Weiterentwicklung der Lösung sind entscheidende Faktoren. Es gilt, die Gesamtkosten zu analysieren und abzuwägen, ob der Kauf einer Lösung oder die Eigenentwicklung langfristig die wirtschaftlichste Option ist. Wenn dann die Fragen kommen, wo sollen die Daten gespeichert werden hat die Auswahl des richtigen Speicherorts Auswirkungen auf die Sicherheit, Skalierbarkeit und Verfügbarkeit der Daten. Die Wahl der Programmiersprache kann die Effizienz der Entwicklung erheblich beeinflussen. Dabei stellt sich die Frage, ob eine bereits im Unternehmen vorhandene Sprache genutzt oder eine spezialisiertere verwendet werden soll. Maßgeschneiderte Lösungen können spezifische Unternehmensanforderungen ideal erfüllen, erfordern jedoch umfangreiche Ressourcen an Know-how, Personen und Zeit. Die Erweiterbarkeit der Lösung ist ebenfalls entscheidend: Kann sie zukünftige Anforderungen und Entwicklungen berücksichtigen? Es ist wichtig, alle relevanten Aspekte sorgfältig zu prüfen, um die beste Lösung zu finden. Neben technischen Überlegungen sollten auch praktische Implikationen wie Kosten-Nutzen-Analysen, Schulungsbedarfe und potenzielle Auswirkungen auf die zukünftige Datenanalyse berücksichtigt werden. Aber was das bei Andreas und Marcus mit dem Brötchenkauf beim Bäcker oder Entscheidung beim Autokauf und individuellen Anpassungen zu tun hat? Hört einfach mal rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#062 Ist Excel doch das beste BI Werkzeug?
In einer Welt, in der sich Technologie ständig weiterentwickelt und neue Lösungen für komplexe Probleme bieten, ist es entscheidend, zu hinterfragen, ob bewährte Tools wie Excel immer noch die beste Wahl für Business Intelligence (BI) sind oder ob neue Werkzeuge neue Maßstäbe setzen können. Diese Frage wirft ein Licht auf die Dynamik zwischen Tradition und Fortschritt in der Welt der Datenanalyse und -verarbeitung. Excel, ein Urgestein unter den Softwareanwendungen, hat sich über die Jahre als unverzichtbares Werkzeug für die Verwaltung von Daten und die Erstellung von Berichten etabliert. Seine Benutzerfreundlichkeit und weitreichende Verbreitung machen es für viele Unternehmen zur ersten Wahl für ihre BI-Anforderungen. Doch während Excel nach wie vor seine Stärken hat, stellen sich Fragen nach seiner Eignung für die modernen Herausforderungen der Datenanalyse. Kann Excel die komplexen Anforderungen moderner Datenanalysen erfüllen oder sind spezialisiertere Werkzeuge besser die neue Lösungsansätze bieten? Neue Entwicklungen in der Softwarelandschaft werfen immer wieder die Diskussion auf: Ist Excel noch zeitgemäß als BI-Werkzeug oder gehört Excel aufs Abstellgleis? Haben innovative BI-Plattformen Potenzial die Anforderungen der modernen Datenanalyse ohne weiteres zu bewerkstelligen? Wir betrachten nicht nur die technischen Aspekte, sondern auch die praktischen Implikationen für Unternehmen. Kosten-Nutzen-Analyse verschiedener BI-Plattformen, die Schulungsbedarfe für Mitarbeiter und die potenziellen Auswirkungen auf die zukünftige Datenanalyse. Sind sich Andreas und Marcus einig und bleibt Excel ein äußerst vielseitiges Werkzeug das komplexe Datenanalysen ermöglicht! Oder etwa nicht? Hört rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!
-
#061 Wie nähern wir uns neuen Funktionen, wie dem Direct Lake?
Tauche ein in die faszinierende Welt des Direct Lake und entdecke, wie wir uns neuen Funktionen nähern. Hier dreht sich alles um frische Themen und Funktionen, die neue Möglichkeiten versprechen. Neue Features werden mit Begeisterung angepriesen, und es gibt keine Grenzen für die Details, die wir erkunden können. Wir tauchen tief ein, um jedes neue Feature zu verstehen und zu optimieren. Und wenn es um Framing, Syncing und Cache-Warming geht, stellen wir sicher, dass das Datenmodell und der Datenfluss optimal bleiben. So bleibt unser Reporting jederzeit einsatzbereit. Doch lassen wir auch keine Fragen offen, was 50 Shades of Direct Lake und Nicola damit zu tun haben... Auch bestehende Features und Funktionen, wie etwa den Datalake, müssen wir stets im Blick behalten. Das Produkt bleibt nicht stehen, sondern entwickelt sich kontinuierlich weiter und erhält neue Funktionen. Doch müssen wir diese immer vorab ausprobieren, bevor wir sie beim Kunden präsentieren? Oder ist der Übergang eher mit einem Beipackzettel zu neuen Medikamenten vergleichbar, der mitunter schmerzhaft sein kann? Die Veränderung ist unausweichlich. Wir hatten nie erwartet, dass sie einfach sein würde, aber wir glauben, dass sich der Aufwand lohnt. Was das Ganze mit einer Westernstadt und Kassettenrecorder zu tun hat hört euch gerne an. Es ist Zeit, den Horizont zu erweitern und die Möglichkeiten zu erkunden, die Fabric, Datalake und Direct Lake uns bieten. Lass uns diese neuen Funktionen anfassen und erleben. So erfahren wir direkt, wie sie unseren BI-Alltag erleichtern, oder nicht? Hört mal rein, wie Andreas und Marcus neue Themen und Features bei Ihrem Lieblingsprodukt sehen und was ihre Einschätzungen, Erfahrungen mit den bekannten und neuen Technologien sind. Wie ist deine Meinung dazu? Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?
-
#060 Wann teilt man Datenmodell und Visualisierung?
Ist da nach einem Rückblick auf die letzten 10 Folgen noch Zeit für ein neues Thema? Im Schnelldurchlauf geht es durch die vergangenen 10 Folgen über Erfahrungen im Home-Office, Entwicklungen, Performanceoptimierung, Standardisierung und Data Driven People. In der sich ständig wandelnden Welt der Informationstechnologie steht eine entscheidende Frage im Mittelpunkt: Sollten wir unseren Benutzern die volle Kontrolle über ihre digitalen Erfahrungen geben oder lieber die Systeme streng voneinander trennen? Es ist die ultimative Auseinandersetzung zwischen Freiheit und Sicherheit, Effizienz und Kontrolle. Auf der einen Seite steht der Self-Service, ein Konzept, das die Grenzen zwischen dem Benutzer und der IT verschwimmen lässt. Mit einem Fingertipp können Benutzer tiefe Einblicke in Datenbanken und Daten erhalten – alles ohne die Wartezeit auf IT-Support. Doch auf der anderen Seite lauert die dunkle Seite der IT – die Systemtrennung. Hier werden die Grenzen klar gezogen, um sensible Informationen zu schützen und sicherzustellen, dass wir Compliance-Vorschriften einhalten. Der Zugang ist streng reglementiert, und nur autorisierte Anwenderkreise dürfen durch die Tore dieser digitalen Festung treten. Aber müssen wir wirklich zwischen diesen beiden Welten wählen? Ist es möglich, die Freiheit über unsere Datenhoheit zu entfesseln, ohne dabei die Sicherheit zu gefährden? Vielleicht liegt die Zukunft der Informationstechnologie genau in dieser Frage – in der Kunst, die Vorteile des Self-Service zu nutzen, ohne dabei die Notwendigkeit der Systemtrennung zu vernachlässigen. Willkommen in der digitalen Ära, wo jede Entscheidung einen neuen Weg in die Zukunft ebnet. Bereit, die Grenzen des Möglichen zu überschreiten? Sind Marcus und Andreas da einer Meinung oder trennen Self-Service vs. Trennung der Systeme auch Sie? Hört mal rein, was Marcus und Andreas in ihrem BI-Leben erlebt haben, was ihre Erfahrungen mit den bekannten und neuen Technologien sind und wie Ihre Meinung dazu ist. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?