Schlagwort: Podcast

  • #061 Wie nähern wir uns neuen Funktionen, wie dem Direct Lake?

    Tauche ein in die faszinierende Welt des Direct Lake und entdecke, wie wir uns neuen Funktionen nähern. Hier dreht sich alles um frische Themen und Funktionen, die neue Möglichkeiten versprechen. Neue Features werden mit Begeisterung angepriesen, und es gibt keine Grenzen für die Details, die wir erkunden können. Wir tauchen tief ein, um jedes neue Feature zu verstehen und zu optimieren. Und wenn es um Framing, Syncing und Cache-Warming geht, stellen wir sicher, dass das Datenmodell und der Datenfluss optimal bleiben. So bleibt unser Reporting jederzeit einsatzbereit. Doch lassen wir auch keine Fragen offen, was 50 Shades of Direct Lake und Nicola damit zu tun haben... Auch bestehende Features und Funktionen, wie etwa den Datalake, müssen wir stets im Blick behalten. Das Produkt bleibt nicht stehen, sondern entwickelt sich kontinuierlich weiter und erhält neue Funktionen. Doch müssen wir diese immer vorab ausprobieren, bevor wir sie beim Kunden präsentieren? Oder ist der Übergang eher mit einem Beipackzettel zu neuen Medikamenten vergleichbar, der mitunter schmerzhaft sein kann? Die Veränderung ist unausweichlich. Wir hatten nie erwartet, dass sie einfach sein würde, aber wir glauben, dass sich der Aufwand lohnt. Was das Ganze mit einer Westernstadt und Kassettenrecorder zu tun hat hört euch gerne an. Es ist Zeit, den Horizont zu erweitern und die Möglichkeiten zu erkunden, die Fabric, Datalake und Direct Lake uns bieten. Lass uns diese neuen Funktionen anfassen und erleben. So erfahren wir direkt, wie sie unseren BI-Alltag erleichtern, oder nicht? Hört mal rein, wie Andreas und Marcus neue Themen und Features bei Ihrem Lieblingsprodukt sehen und was ihre Einschätzungen, Erfahrungen mit den bekannten und neuen Technologien sind. Wie ist deine Meinung dazu? Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #060 Wann teilt man Datenmodell und Visualisierung?

    Ist da nach einem Rückblick auf die letzten 10 Folgen noch Zeit für ein neues Thema? Im Schnelldurchlauf geht es durch die vergangenen 10 Folgen über Erfahrungen im Home-Office, Entwicklungen, Performanceoptimierung, Standardisierung und Data Driven People. In der sich ständig wandelnden Welt der Informationstechnologie steht eine entscheidende Frage im Mittelpunkt: Sollten wir unseren Benutzern die volle Kontrolle über ihre digitalen Erfahrungen geben oder lieber die Systeme streng voneinander trennen? Es ist die ultimative Auseinandersetzung zwischen Freiheit und Sicherheit, Effizienz und Kontrolle. Auf der einen Seite steht der Self-Service, ein Konzept, das die Grenzen zwischen dem Benutzer und der IT verschwimmen lässt. Mit einem Fingertipp können Benutzer tiefe Einblicke in Datenbanken und Daten erhalten – alles ohne die Wartezeit auf IT-Support. Doch auf der anderen Seite lauert die dunkle Seite der IT – die Systemtrennung. Hier werden die Grenzen klar gezogen, um sensible Informationen zu schützen und sicherzustellen, dass wir Compliance-Vorschriften einhalten. Der Zugang ist streng reglementiert, und nur autorisierte Anwenderkreise dürfen durch die Tore dieser digitalen Festung treten. Aber müssen wir wirklich zwischen diesen beiden Welten wählen? Ist es möglich, die Freiheit über unsere Datenhoheit zu entfesseln, ohne dabei die Sicherheit zu gefährden? Vielleicht liegt die Zukunft der Informationstechnologie genau in dieser Frage – in der Kunst, die Vorteile des Self-Service zu nutzen, ohne dabei die Notwendigkeit der Systemtrennung zu vernachlässigen. Willkommen in der digitalen Ära, wo jede Entscheidung einen neuen Weg in die Zukunft ebnet. Bereit, die Grenzen des Möglichen zu überschreiten? Sind Marcus und Andreas da einer Meinung oder trennen Self-Service vs. Trennung der Systeme auch Sie? Hört mal rein, was Marcus und Andreas in ihrem BI-Leben erlebt haben, was ihre Erfahrungen mit den bekannten und neuen Technologien sind und wie Ihre Meinung dazu ist. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #059 Was sind Data Driven People? Gast: Andreas Wiener

    In einer spannenden Diskussion von Andreas, Marcus und Andreas Wiener um "Data Driven People" und die Frage, ob "Data Driven Company" ein irreführender Begriff ist, prallen unterschiedliche Meinungen aufeinander. Während einige behaupten, dass es nur die Datenexperten sein müssen, die sich auf Zahlen und Fakten verlassen, um Entscheidungen zu treffen, winken andere ab und sagen: "Das brauche ich alles nicht." Doch in einer Welt, in der die Fakten zählen und belastbare Entscheidungen den Unterschied zwischen Erfolg und Misserfolg ausmachen können, betont Andreas Wiener, die Bedeutung des datengesteuerten Handelns. Doch was bedeutet es wirklich, "Data Driven" zu sein? Geht es in erster Linie um Monitoring – um das Sammeln und Analysieren von Daten, um Trends zu erkennen und Entwicklungen vorherzusagen. Oder stellt sich letztendlich die entscheidende Frage: Wer trifft die eigentlichen Entscheidungen? Kann das auch die KI leisten, ohne das der Mensch eingreift? Während die einen behaupten, dass die Daten selbst die Entscheidungen lenken sollten, plädieren andere für die Notwendigkeit menschlicher Intuition und Erfahrung, um die Daten richtig zu interpretieren und zu nutzen. In dieser Debatte stehen sich verschiedene Weltanschauungen gegenüber – eine, die auf absoluter Datentransparenz und -kontrolle basiert, und eine andere, die die menschliche Dimension betont und die Daten als Unterstützung für menschliche Entscheidungen betrachtet. In einem überraschenden Einwurf wird darauf hingewiesen, dass Piloten, ähnlich wie Manager, oft stark auf Daten angewiesen sind, jedoch auch auf ihre Erfahrungswerte und Intuition zurückgreifen müssen, um schnelle und präzise Entscheidungen zu treffen. Kann nicht zukünftig die KI auch die Entscheidungen treffen – oder braucht es vielleicht menschliche Erfahrungswerte, die Maschinen nicht replizieren können? Taucht ein in unsere Diskussion mit Andreas, Andreas und Marcus und erfahrt, wie wir das Thema sehen und was der Klang einer Glocke damit zu tun hat?" Werden wir uns einig sein, oder wird Andreas oder Andreas den Marcus überzeugen können? Lasst es uns herausfinden! Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die drei Experten zu erzählen haben!

  • #058 Was kommt nach der künstlichen Intelligenz?

    Marcus und Andreas laden euch herzlich ein, ihrer lebhaften Diskussion über den gezielten Einsatz von Künstlicher Intelligenz (KI) in BI-Systemen anzuschließen. In ihrem Gespräch nehmen sie die vielfältigen Aspekte unter die Lupe, die darüber entscheiden, wie viel KI in BI-Umgebungen sinnvoll ist und welchen Einfluss dies auf das Geschäft haben kann. Ist es nicht unerlässlich zu verstehen, wie man KI effektiv einsetzt? Oder sollte jeder KI nutzen können, ohne die daraus resultierenden Erkenntnisse zu hinterfragen? Ist eine gründliche Analyse der Geschäftsanforderungen immer noch von Bedeutung, um festzustellen, welches Maß der Unterstützung an KI tatsächlich erforderlich ist? Die wahre Herausforderung besteht doch darin, das richtige Gleichgewicht zwischen Maschinen, Menschen und der Art der Entscheidungsfindung zu finden. Es stellen sich immer mehr Fragen: Müssen wir KI noch anleiten, damit sie uns die besten Empfehlungen liefern kann? Und was kommt nach der Ära der KI? Werden wir noch benötigt, um Berichte zu erstellen, oder wird KI bereits alle erforderlichen Informationen besitzen, um eigenständig die richtigen Erkenntnisse zu ermitteln und eigenständig Entscheidungen zu treffen? Wird der Mensch überhaupt noch gebraucht, um Entscheidungen zu bewerten und zu treffen? Bleibt eine solide Ausbildung in menschlicher Intelligenz dann noch relevant? Taucht ein in unsere Diskussion und erfahrt, wie unsere eigenen Erfahrungen mit diesen Fragen aussehen und welchen Einfluss Lambda, das Wettrüsten und die Förderung von Kreativität auf diesen Prozess haben. Werden wir uns einig sein, oder wird Andreas Marcus überzeugen können? Oder wird Marcus noch weitere Fragen stellen, die neue Perspektiven eröffnen? Lasst es uns herausfinden! Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!

  • #057 Wie viel Real-Time ist im BI sinnvoll?

    Das Thema Echtzeitdaten im Bereich Business Intelligence (BI) ist zweifellos von großer Bedeutung, und Andreas hatte kürzlich das Vergnügen, mit Kathrin Borchert darüber zu sprechen. Ihre Betonung der Wichtigkeit von Echtzeitdaten für bestimmte Geschäftsszenarien, insbesondere in schnelllebigen Branchen wie dem E-Commerce oder der Finanzdienstleistungsbranche, war äußerst interessant. Es ist unbestreitbar, dass Live-Daten Unternehmen einen erheblichen Wettbewerbsvorteil bieten können, indem sie es ermöglichen, schnell auf Marktveränderungen zu reagieren und fundierte Entscheidungen in Echtzeit zu treffen. Allerdings sollten wir auch berücksichtigen das Near-Realtime-Daten hier oft ausreichend sein können, da sie eine schnellere Aktualisierung bieten als tägliche Daten, aber nicht unmittelbar in Echtzeit sind. Diese Art von Daten eignet sich gut für die Überwachung von KPIs und die Analyse von Trends oder Entwicklungen, oder? Auf der anderen Seite können einmal täglich aktualisierte Daten für die Analysen geeignet sein, insbesondere wenn es um Trends und strategische Entscheidungen geht. In solchen Fällen kann es ausreichen, auf vortagesaktuelle Daten zurückzugreifen, um Einblicke in die Leistung des Unternehmens zu gewinnen. Hier stellt sich jedoch die Frage, ob neue Ansätze notwendig sind, um mit der sich ständig wandelnden Geschäftswelt Schritt zu halten. Die Lambda-Architektur bietet eine Möglichkeit, verschiedene Arten von Daten zu verarbeiten und zu speichern, sowohl in Echtzeit als auch in Batch-Verarbeitung. Die Kombination von Echtzeit- und Batch-Datenverarbeitung ermöglicht es Unternehmen flexibel auf ihre spezifischen Anforderungen zu reagieren und die Vorteile beider Ansätze zu nutzen. Insgesamt ist es wichtig, die Anforderungen und Szenarien des Unternehmens genau zu verstehen, um festzustellen, wie viel Realtime im BI sinnvoll ist und was der Kunde wirklich für seine Anforderungen benötigt. Dies erfordert eine sorgfältige Abwägung zwischen den Vorteilen der Echtzeitdaten und den damit verbundenen Kosten und technischen Herausforderungen. Aber was hat das Ganze mit Lambda-Architektur, Direct Lake und dem Data Activator in Power BI zu tun? Hört rein, wie unsere Erfahrungen damit sind und was das Ganze mit Schrauben, Golf und der BI Pyramide zu tun hat. Werden wir diesmal einer Meinung sein? Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!

  • #056 Standardisierung und Flexibilität durch ein BI Produkt? Gast: Michael Jungschläger

    In der Welt der Datenintegration und Datenaufbereitung stellt sich die Frage: Kann die Effizienz durch klare Leitplanken und Standardisierungen verbessert werden? Eine Schlüsselfrage ist, wie man mit diesen Prinzipien "klein starten und mitwachsen" kann. Hier kommen Konzepte wie Hubs, Links und Satelliten ins Spiel, die im Kontext des Data Vaults eine feine Granularität in der Datenorganisation für den Core ermöglichen. Der modulare Ansatz verspricht, das System jederzeit abzubilden und reproduzierbar zu machen. Welche Erfahrungen hat Michael in seinen Projekten mit solchen Ansätzen gesammelt? Wie haben sich Konzepte wie Hubs, Links und Satelliten in der Praxis bewährt, wenn es darum geht, Daten effizient aufzubereiten und zu integrieren? Eine weitere spannende Frage betrifft den Einsatz eines Technologie-Stacks im flexiblen Self-Service-Umfeld von Power BI. Hier steht die Herausforderung im Raum, die Prinzipien von Standardisierung und Freiheit in Einklang zu bringen. Wie kann man weiterhin flexibel auf sich ändernde Anforderungen und Datenquellen reagieren, während klare Entwicklungsrichtlinien eine solide Basis für Wartbarkeit und Skalierbarkeit bieten? In unserem Gespräch mit Michael werden wir auch den Zusammenhang zwischen Baukastenkonzept, iterativen Prozessen beleuchten. Was ist in diesem Zusammenhang mit User Exits gemeint? Wie tragen diese Elemente dazu bei, eine effiziente Datenintegration und -verarbeitung zu gewährleisten? Wie können iterative Prozesse bei der Datenintegration die Agilität und Anpassungsfähigkeit zu fördern? Kann man mit einem ausgewogenen Ansatz, der die Integration von Technologien, einem Standard-Tool, klaren Leitplanken und einem bewährten Vorgehensmodell wie dem Data Vault-Konzept, effiziente Datenintegration und -verarbeitung in BI-Projekten sicherstellen? Hört rein, wie Michael seine Erfahrungen mit Andreas und Marcus teilt. Werden sie diesmal einer Meinung sein? Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die Experten zu erzählen haben!

  • #055 Wie bekommen wir Performance ins BI-System?

    In der modernen Welt ist Performance der Schlüssel für eine reibungslose Funktionalität von Business Intelligence-Systemen. Es ist entscheidend, sich dabei nicht in den Details des Codes zu verlieren, sondern den Fokus auf effiziente Lösungen zu legen. Doch was geschieht, wenn Performanceprobleme auftreten? Wie steht es um den Wissensstand und die Ausbildung? Ist der vermeintlich langsame Bericht tatsächlich langsam oder nur ein Gefühl? Können Schulungen im Vorfeld einer fehlerhaften Implementierung entgegenwirken? Ein zentraler Aspekt der Berichtsperformance ist der Ort, an dem die Berechnungen stattfinden. Während in der Demo alles reibungslos ablaufen mag, können in der Produktion Engpässe entstehen, insbesondere wenn Berechnungen auf dem Server oder im Browser durchgeführt werden. Es ist von großer Bedeutung, den genauen Ort der Berechnungen zu überprüfen und sicherzustellen, dass die Serverkapazitäten ausreichend sind. Kann man durch einfache Regeln die Performance sicherstellen? Ist es sinnvoll, beim Laden der Daten Zeit in Kauf zu nehmen, um später in der Berichtsperformance Gewinne zu erzielen? Eine bewusste Ausrichtung auf Performance, nicht nur technologisch, sondern auch im Hinblick auf ökologische Nachhaltigkeit, spielt eine entscheidende Rolle. Ist dies bereits Green IT? Effiziente Abläufe tragen nicht nur zur optimalen Nutzung von Ressourcen bei, sondern minimieren auch den ökologischen Fußabdruck. In diesem Zusammenhang sind klare Verantwortlichkeiten, effektive Teamzusammenarbeit und der Einsatz geeigneter Werkzeuge entscheidend. Nur so kann gewährleistet werden, dass der ressourcenschonende Einsatz ohne Einbußen bei der Analyseperformance den Anforderungen gerecht wird. Hört rein, wie Marcus und Andreas durch ihre Erfahrungen in Kundenprojekten geprägt sind. Sind sie diesmal einer Meinung? Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!

  • #054 Verschmilzt Business und IT?

    In vielen Unternehmen wird die Trennung von Fachlichkeit und IT als Herausforderung wahrgenommen. Dabei kommt es nicht selten zur Entstehung von Schatten-IT, was für uns die Bedeutung von Leitplanken, Richtlinien und einer klaren Governance unterstreicht. Die Integration von Self-Service-Tools stellt eine transformative Entwicklung dar, erfordert jedoch eine klare Verteilung von Verantwortlichkeiten. Eine ausgewogene Balance zwischen Agilität und klaren Strukturen ist entscheidend, um den Anforderungen der modernen Arbeitswelt gerecht zu werden und die Themen Datenschutz und Compliance nicht zu vernachlässigen. Trotz des Drucks auf schnelle Ergebnisse ist es wichtig, die Notwendigkeit der Standardisierung nicht zu vernachlässigen. Die Komplexität der modernen Unternehmenslandschaft spiegelt sich in der Vielfalt der Datenquellen und Berechtigungen wider. Learnable Tools und eine umfassende Dokumentation der Prozesse unterstützen und erleichtern die Zusammenarbeit mit jüngeren Kollegen, die oft mit innovativen Ideen und einem frischen Blick auf Technologie kommen. Der Fachkräftebedarf steht vor komplexen Herausforderungen, die eine integrierte Herangehensweise an Business und IT erfordern. Klare Verantwortlichkeiten, effektive Zusammenarbeit und die Integration von modernen Tools und Ansätzen sind entscheidend, um den Anforderungen der digitalen Ära gerecht zu werden. Sind Andreas und Marcus dabei unterschiedlicher Meinung oder teilen Sie gar die Ansichten? Hört mal rein, was Marcus und Andreas wirklich dazu denken und wie ihre Erfahrungen aus den Kundenprojekten sind. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei.

  • #053 Was sind die BI Trends für 2024?

    Gemeinsam werfen wir einen Blick auf den BARC Trendmonitor und vergleichen, welche Themen uns bei unseren Kunden begegnen – sei es Datenqualität, Datenkultur, Data Literacy oder Data Governance. Aber halt, sind Berechtigungen und Zugriffe wirklich so wichtig, und was hat das mit dem BI-Haus zu tun? Und wenn wir über KI, AI und ML sprechen, taucht am Horizont der Copilot auf. Ist das die Zukunft oder nur ein Trend für 2024? Self-Service-Analysen, Datenermittlung, Data Warehouse-Modernisierung, Datenkataloge, Datenintelligenz-Plattformen, Cloud für Daten & Analytik, Echtzeit-Analytik & Streaming, Integrierte Plattformen für PM & Analytik, Entscheidungsintelligenz – alles Themen, die in dieser Folge ausführlich besprochen werden, und ja, es wird etwas länger dauern. Was hat das Ganze mit Torjägern und der Torlinie im Fußball zu tun? Andreas und Marcus erzählen euch in gewohnter Manier, immer mit einem klaren Bezug zu ihren Erfahrungen aus Kundenprojekten. Ihr erfahrt, was wir glauben welche Trends uns ins Jahr 2024 begleiten werden und welche sich stärker in den Vordergrund drängen. Vielleicht gibt es sogar ganz neue, aufregende Themen? Und natürlich erzählen wir euch, welche Erfahrungen Andreas und Marcus in Sachen Trends und deren Einsatz im Kundenprojekt gemacht haben. Gibt es eine klare Richtung, in die sich die Themen bewegen, oder ist das Ganze so individuell wie ein maßgeschneiderter Anzug? Lasst euch überraschen und seid gespannt auf eine unterhaltsame und informative Folge! Hört mal rein, was Marcus und Andreas dazu erlebt haben und ob sie die 3 Dinge für den Nachhauseweg wieder empfehlen können?

  • #52 Wie viele Schichten braucht eine BI-Lösung?

    In der Welt des Business Intelligence sind die Schichten wie Bausteine. Sie dienen dazu, Daten auf unterschiedlichen Ebenen zu organisieren und zu verarbeiten. Einige Aufgaben lassen sich effektiver durch SQL realisieren, während andere in Spark ihre Stärken entfalten. Die Wahl der Technologie hängt von der Natur der Aufgabe, den Fähigkeiten der Entwickler und den spezifischen Anforderungen ab, oder? Wenn man die verschiedenen Schichten jetzt als Schnittstelle zwischen den Datenquellen, den Verarbeitungsschritten und den Analysewerkzeugen betrachtet, wie viele Schichten benötigt man dann? Was sind in diesem Kontext denn Bronze, Silber und Gold, bringen sie die den Glanz in die BI-Welt? Doch, halt mal! Ist es nicht entscheidend, wer da vor den Daten steht und wie er sie nutzt? Sind Bronze, Silber und Gold vielleicht sogar Statements darüber, wie wir mit den Daten umgehen? Haben Andreas und Marcus da ihre Präferenzen, wenn es um das BI-Modell geht? Gibt es eine klare Empfehlung, oder ist das Ganze so individuell wie ein maßgeschneiderter Anzug? Hört mal rein, was Marcus und Andreas dazu denken und wie ihre Erfahrungen sind. Können sie die 3 Dinge für den Nachhauseweg wieder empfehlen?