Schlagwort: Data

  • #068 Was ist eigentlich dieses dbt?

    dbt oder Data Build Tool, ist ein wesentlicher Bestandteil von Datenpipelines. Es ermöglicht in unseren BI-Projekten, SQL-Abfragen zu verwalten und Daten effizient zu transformieren. Eines der größten Vorteile von dbt ist die Fähigkeit, Änderungen an den Datenmodellen nachvollziehen zu können. Das ist besonders hilfreich, um sicherzustellen, dass man konsistente und genaue Daten in den Data Warehouses hat. Und wenn jeder im Team weiß, wie man Markdown verwendet, kann man sich dann als dbt-Experte bezeichnen? Der größte Vorteil von dbt ist die Versionierung und Dokumentation von Änderungen an den Datenmodellen, was die Nachverfolgbarkeit und Transparenz erheblich verbessert. Wenn man dann noch seinen Code gut strukturiert, mit klaren Namenskonventionen arbeitet erleichtert es das Verständnis, die Qualität und die Wartbarkeit des Codes. Erfahrt, wie dbt die Datenprozesse revolutionieren kann und ob es das Zeug hat, zum unverzichtbaren Begleiter in unserer Datenlandschaft zu werden. Wie sehen es Andreas und Marcus? Sind sie derselben Meinung oder haben sie unterschiedliche Ansichten? Welche Erfahrungen haben sie in ihren BI-Projekten mit dbt gemacht? Oder gibt es Bereiche, in denen sie unterschiedliche Meinungen haben? Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #067 Wie verstehen wir Datenprodukte?

    Datenprodukte sind speziell entwickelte Anwendungen, Tools oder Systeme, die aus vorhandenen Daten nützliche Informationen und Erkenntnisse generieren. Sie entstehen durch Prozesse, die Daten sammeln, verarbeiten, analysieren und präsentieren, um sie für Nutzer wertvoll und zugänglich zu machen. Aber ist das wirklich alles? Gibt es klare Definitionen, was dazu gehört, wie beispielsweise Berichte, Dashboards, Algorithmen, APIs oder ganze Analytikplattformen? Oder sind diese Themen unterschiedlich, weil jeder eine andere Sicht auf die Inhalte von Datenprodukten hat? Beginnt man mit der Sammlung von Daten aus unterschiedlichen Quellen oder klar festgelegten Systemen? Obwohl diese Themen für den Endverbraucher oft uninteressant sind, sind sie entscheidend für die Qualität und Inhalte der Datenprodukte. Welche Perspektiven gibt es bei der Erstellung und Nutzung von Datenprodukten? Aus Sicht des Erstellers eines Datenprodukts sind mehrere Elemente wichtig. Dazu gehören ein Prüfsiegel zur Qualitätssicherung, eine klare Spezifikation der Anforderungen, ein Handbuch zur Nutzung und die Bewerbung des Produkts. Aus Sicht des Konsumenten liegt der Schwerpunkt auf der Bedienbarkeit. Ein Datenprodukt muss so gestaltet sein, dass der Nutzer es leicht verstehen und anwenden kann, um die Akzeptanz zu maximieren. Datenprodukte sollen dazu beitragen, datengetriebene Entscheidungen zu erleichtern und die Effizienz sowie die Genauigkeit von Geschäftsprozessen zu steigern. Sehen Andreas und Marcus das genauso wie viele Experten oder haben sie dazu eine andere Meinung? Welche Erfahrungen haben sie in Ihren BI-Projekten damit gemacht? Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #065 Das ganze BI-Projekt aus einer Hand?

    Ein Anbieter, der alle notwendigen Dienstleistungen für ein BI-Projekt aus einer Hand liefert, kann viele Vorteile bieten. Dazu gehören nahtlose Integration, einheitliche Standards und eine klare Verantwortlichkeit. Die Koordination zwischen verschiedenen Teams und Technologien wird vereinfacht, was zu einer effizienteren Umsetzung führen kann. Aber manchmal ist es besser, einen Profi hinzuzuziehen. Für spezielle Themen wie Datenaufbereitung und Reporting können Spezialisten den Unterschied machen. Analytic BI ist ein weiterer wesentlicher Aspekt, der fortgeschrittene analytische Fähigkeiten und Technologien wie maschinelles Lernen und Künstliche Intelligenz umfasst. Die Fähigkeit, prädiktive Analysen durchzuführen und datengetriebene Entscheidungen zu treffen, ist für viele Unternehmen von unschätzbarem Wert. All diese Überlegungen erfordern es Experten mit tieferem Wissen und spezialisierte Fähigkeiten einzusetzen, die das Projekt auf das nächste Level heben. Schließlich kann die Zusammenarbeit mit einem Anbieter, der mehrere spezialisierte Teams bereitstellt, die beste Lösung sein. Diese Teams können sich auf ihre jeweiligen Fachgebiete konzentrieren und gleichzeitig eng zusammenarbeiten, um das Gesamtprojektziel zu erreichen. Diese Struktur bietet eine Balance zwischen spezialisierten Kenntnissen und koordinierter Umsetzung. Insgesamt bietet der Ansatz "alles aus einer Hand" für BI-Projekte eine strukturierte und effiziente Lösung. Die Einbeziehung von Spezialisten für spezifische Themen und die Nutzung einer umfassenden Datenintegrationsplattform können die Qualität und den Erfolg des Projekts erheblich steigern. Hört rein welche Erfahrungen Andreas und Marcus in Ihren BI-Projekten damit gemacht haben und warum ist ein es besser ist im Team zu arbeiten. Oder sind sie da nicht einer Meinung? Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #063 Kaufen oder selber machen?

    In der komplexen Welt des Business Intelligence (BI) steht man oft vor der grundlegenden Entscheidung: Soll man eine Lösung kaufen oder selbst entwickeln? Diese Entscheidung hängt von einer Vielzahl von Faktoren ab und ist selten einfach zu treffen. Es ist eine "It depends"-Entscheidung, die von vielen Variablen beeinflusst wird. Ein wichtiger Aspekt bei dieser Entscheidung sind die Kosten. Doch dieser umfasst weit mehr als nur den reinen finanziellen Aufwand. Natürlich spielen Budgetbeschränkungen eine Rolle, aber auch Zeit, Ressourcen und die langfristige Weiterentwicklung der Lösung sind entscheidende Faktoren. Es gilt, die Gesamtkosten zu analysieren und abzuwägen, ob der Kauf einer Lösung oder die Eigenentwicklung langfristig die wirtschaftlichste Option ist. Wenn dann die Fragen kommen, wo sollen die Daten gespeichert werden hat die Auswahl des richtigen Speicherorts Auswirkungen auf die Sicherheit, Skalierbarkeit und Verfügbarkeit der Daten. Die Wahl der Programmiersprache kann die Effizienz der Entwicklung erheblich beeinflussen. Dabei stellt sich die Frage, ob eine bereits im Unternehmen vorhandene Sprache genutzt oder eine spezialisiertere verwendet werden soll. Maßgeschneiderte Lösungen können spezifische Unternehmensanforderungen ideal erfüllen, erfordern jedoch umfangreiche Ressourcen an Know-how, Personen und Zeit. Die Erweiterbarkeit der Lösung ist ebenfalls entscheidend: Kann sie zukünftige Anforderungen und Entwicklungen berücksichtigen? Es ist wichtig, alle relevanten Aspekte sorgfältig zu prüfen, um die beste Lösung zu finden. Neben technischen Überlegungen sollten auch praktische Implikationen wie Kosten-Nutzen-Analysen, Schulungsbedarfe und potenzielle Auswirkungen auf die zukünftige Datenanalyse berücksichtigt werden. Aber was das bei Andreas und Marcus mit dem Brötchenkauf beim Bäcker oder Entscheidung beim Autokauf und individuellen Anpassungen zu tun hat? Hört einfach mal rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #062 Ist Excel doch das beste BI Werkzeug?

    In einer Welt, in der sich Technologie ständig weiterentwickelt und neue Lösungen für komplexe Probleme bieten, ist es entscheidend, zu hinterfragen, ob bewährte Tools wie Excel immer noch die beste Wahl für Business Intelligence (BI) sind oder ob neue Werkzeuge neue Maßstäbe setzen können. Diese Frage wirft ein Licht auf die Dynamik zwischen Tradition und Fortschritt in der Welt der Datenanalyse und -verarbeitung. Excel, ein Urgestein unter den Softwareanwendungen, hat sich über die Jahre als unverzichtbares Werkzeug für die Verwaltung von Daten und die Erstellung von Berichten etabliert. Seine Benutzerfreundlichkeit und weitreichende Verbreitung machen es für viele Unternehmen zur ersten Wahl für ihre BI-Anforderungen. Doch während Excel nach wie vor seine Stärken hat, stellen sich Fragen nach seiner Eignung für die modernen Herausforderungen der Datenanalyse. Kann Excel die komplexen Anforderungen moderner Datenanalysen erfüllen oder sind spezialisiertere Werkzeuge besser die neue Lösungsansätze bieten? Neue Entwicklungen in der Softwarelandschaft werfen immer wieder die Diskussion auf: Ist Excel noch zeitgemäß als BI-Werkzeug oder gehört Excel aufs Abstellgleis? Haben innovative BI-Plattformen Potenzial die Anforderungen der modernen Datenanalyse ohne weiteres zu bewerkstelligen? Wir betrachten nicht nur die technischen Aspekte, sondern auch die praktischen Implikationen für Unternehmen. Kosten-Nutzen-Analyse verschiedener BI-Plattformen, die Schulungsbedarfe für Mitarbeiter und die potenziellen Auswirkungen auf die zukünftige Datenanalyse. Sind sich Andreas und Marcus einig und bleibt Excel ein äußerst vielseitiges Werkzeug das komplexe Datenanalysen ermöglicht! Oder etwa nicht? Hört rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #061 Wie nähern wir uns neuen Funktionen, wie dem Direct Lake?

    Tauche ein in die faszinierende Welt des Direct Lake und entdecke, wie wir uns neuen Funktionen nähern. Hier dreht sich alles um frische Themen und Funktionen, die neue Möglichkeiten versprechen. Neue Features werden mit Begeisterung angepriesen, und es gibt keine Grenzen für die Details, die wir erkunden können. Wir tauchen tief ein, um jedes neue Feature zu verstehen und zu optimieren. Und wenn es um Framing, Syncing und Cache-Warming geht, stellen wir sicher, dass das Datenmodell und der Datenfluss optimal bleiben. So bleibt unser Reporting jederzeit einsatzbereit. Doch lassen wir auch keine Fragen offen, was 50 Shades of Direct Lake und Nicola damit zu tun haben... Auch bestehende Features und Funktionen, wie etwa den Datalake, müssen wir stets im Blick behalten. Das Produkt bleibt nicht stehen, sondern entwickelt sich kontinuierlich weiter und erhält neue Funktionen. Doch müssen wir diese immer vorab ausprobieren, bevor wir sie beim Kunden präsentieren? Oder ist der Übergang eher mit einem Beipackzettel zu neuen Medikamenten vergleichbar, der mitunter schmerzhaft sein kann? Die Veränderung ist unausweichlich. Wir hatten nie erwartet, dass sie einfach sein würde, aber wir glauben, dass sich der Aufwand lohnt. Was das Ganze mit einer Westernstadt und Kassettenrecorder zu tun hat hört euch gerne an. Es ist Zeit, den Horizont zu erweitern und die Möglichkeiten zu erkunden, die Fabric, Datalake und Direct Lake uns bieten. Lass uns diese neuen Funktionen anfassen und erleben. So erfahren wir direkt, wie sie unseren BI-Alltag erleichtern, oder nicht? Hört mal rein, wie Andreas und Marcus neue Themen und Features bei Ihrem Lieblingsprodukt sehen und was ihre Einschätzungen, Erfahrungen mit den bekannten und neuen Technologien sind. Wie ist deine Meinung dazu? Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #060 Wann teilt man Datenmodell und Visualisierung?

    Ist da nach einem Rückblick auf die letzten 10 Folgen noch Zeit für ein neues Thema? Im Schnelldurchlauf geht es durch die vergangenen 10 Folgen über Erfahrungen im Home-Office, Entwicklungen, Performanceoptimierung, Standardisierung und Data Driven People. In der sich ständig wandelnden Welt der Informationstechnologie steht eine entscheidende Frage im Mittelpunkt: Sollten wir unseren Benutzern die volle Kontrolle über ihre digitalen Erfahrungen geben oder lieber die Systeme streng voneinander trennen? Es ist die ultimative Auseinandersetzung zwischen Freiheit und Sicherheit, Effizienz und Kontrolle. Auf der einen Seite steht der Self-Service, ein Konzept, das die Grenzen zwischen dem Benutzer und der IT verschwimmen lässt. Mit einem Fingertipp können Benutzer tiefe Einblicke in Datenbanken und Daten erhalten – alles ohne die Wartezeit auf IT-Support. Doch auf der anderen Seite lauert die dunkle Seite der IT – die Systemtrennung. Hier werden die Grenzen klar gezogen, um sensible Informationen zu schützen und sicherzustellen, dass wir Compliance-Vorschriften einhalten. Der Zugang ist streng reglementiert, und nur autorisierte Anwenderkreise dürfen durch die Tore dieser digitalen Festung treten. Aber müssen wir wirklich zwischen diesen beiden Welten wählen? Ist es möglich, die Freiheit über unsere Datenhoheit zu entfesseln, ohne dabei die Sicherheit zu gefährden? Vielleicht liegt die Zukunft der Informationstechnologie genau in dieser Frage – in der Kunst, die Vorteile des Self-Service zu nutzen, ohne dabei die Notwendigkeit der Systemtrennung zu vernachlässigen. Willkommen in der digitalen Ära, wo jede Entscheidung einen neuen Weg in die Zukunft ebnet. Bereit, die Grenzen des Möglichen zu überschreiten? Sind Marcus und Andreas da einer Meinung oder trennen Self-Service vs. Trennung der Systeme auch Sie? Hört mal rein, was Marcus und Andreas in ihrem BI-Leben erlebt haben, was ihre Erfahrungen mit den bekannten und neuen Technologien sind und wie Ihre Meinung dazu ist. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #059 Was sind Data Driven People? Gast: Andreas Wiener

    In einer spannenden Diskussion von Andreas, Marcus und Andreas Wiener um "Data Driven People" und die Frage, ob "Data Driven Company" ein irreführender Begriff ist, prallen unterschiedliche Meinungen aufeinander. Während einige behaupten, dass es nur die Datenexperten sein müssen, die sich auf Zahlen und Fakten verlassen, um Entscheidungen zu treffen, winken andere ab und sagen: "Das brauche ich alles nicht." Doch in einer Welt, in der die Fakten zählen und belastbare Entscheidungen den Unterschied zwischen Erfolg und Misserfolg ausmachen können, betont Andreas Wiener, die Bedeutung des datengesteuerten Handelns. Doch was bedeutet es wirklich, "Data Driven" zu sein? Geht es in erster Linie um Monitoring – um das Sammeln und Analysieren von Daten, um Trends zu erkennen und Entwicklungen vorherzusagen. Oder stellt sich letztendlich die entscheidende Frage: Wer trifft die eigentlichen Entscheidungen? Kann das auch die KI leisten, ohne das der Mensch eingreift? Während die einen behaupten, dass die Daten selbst die Entscheidungen lenken sollten, plädieren andere für die Notwendigkeit menschlicher Intuition und Erfahrung, um die Daten richtig zu interpretieren und zu nutzen. In dieser Debatte stehen sich verschiedene Weltanschauungen gegenüber – eine, die auf absoluter Datentransparenz und -kontrolle basiert, und eine andere, die die menschliche Dimension betont und die Daten als Unterstützung für menschliche Entscheidungen betrachtet. In einem überraschenden Einwurf wird darauf hingewiesen, dass Piloten, ähnlich wie Manager, oft stark auf Daten angewiesen sind, jedoch auch auf ihre Erfahrungswerte und Intuition zurückgreifen müssen, um schnelle und präzise Entscheidungen zu treffen. Kann nicht zukünftig die KI auch die Entscheidungen treffen – oder braucht es vielleicht menschliche Erfahrungswerte, die Maschinen nicht replizieren können? Taucht ein in unsere Diskussion mit Andreas, Andreas und Marcus und erfahrt, wie wir das Thema sehen und was der Klang einer Glocke damit zu tun hat?" Werden wir uns einig sein, oder wird Andreas oder Andreas den Marcus überzeugen können? Lasst es uns herausfinden! Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die drei Experten zu erzählen haben!

  • #058 Was kommt nach der künstlichen Intelligenz?

    Marcus und Andreas laden euch herzlich ein, ihrer lebhaften Diskussion über den gezielten Einsatz von Künstlicher Intelligenz (KI) in BI-Systemen anzuschließen. In ihrem Gespräch nehmen sie die vielfältigen Aspekte unter die Lupe, die darüber entscheiden, wie viel KI in BI-Umgebungen sinnvoll ist und welchen Einfluss dies auf das Geschäft haben kann. Ist es nicht unerlässlich zu verstehen, wie man KI effektiv einsetzt? Oder sollte jeder KI nutzen können, ohne die daraus resultierenden Erkenntnisse zu hinterfragen? Ist eine gründliche Analyse der Geschäftsanforderungen immer noch von Bedeutung, um festzustellen, welches Maß der Unterstützung an KI tatsächlich erforderlich ist? Die wahre Herausforderung besteht doch darin, das richtige Gleichgewicht zwischen Maschinen, Menschen und der Art der Entscheidungsfindung zu finden. Es stellen sich immer mehr Fragen: Müssen wir KI noch anleiten, damit sie uns die besten Empfehlungen liefern kann? Und was kommt nach der Ära der KI? Werden wir noch benötigt, um Berichte zu erstellen, oder wird KI bereits alle erforderlichen Informationen besitzen, um eigenständig die richtigen Erkenntnisse zu ermitteln und eigenständig Entscheidungen zu treffen? Wird der Mensch überhaupt noch gebraucht, um Entscheidungen zu bewerten und zu treffen? Bleibt eine solide Ausbildung in menschlicher Intelligenz dann noch relevant? Taucht ein in unsere Diskussion und erfahrt, wie unsere eigenen Erfahrungen mit diesen Fragen aussehen und welchen Einfluss Lambda, das Wettrüsten und die Förderung von Kreativität auf diesen Prozess haben. Werden wir uns einig sein, oder wird Andreas Marcus überzeugen können? Oder wird Marcus noch weitere Fragen stellen, die neue Perspektiven eröffnen? Lasst es uns herausfinden! Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!

  • #057 Wie viel Real-Time ist im BI sinnvoll?

    Das Thema Echtzeitdaten im Bereich Business Intelligence (BI) ist zweifellos von großer Bedeutung, und Andreas hatte kürzlich das Vergnügen, mit Kathrin Borchert darüber zu sprechen. Ihre Betonung der Wichtigkeit von Echtzeitdaten für bestimmte Geschäftsszenarien, insbesondere in schnelllebigen Branchen wie dem E-Commerce oder der Finanzdienstleistungsbranche, war äußerst interessant. Es ist unbestreitbar, dass Live-Daten Unternehmen einen erheblichen Wettbewerbsvorteil bieten können, indem sie es ermöglichen, schnell auf Marktveränderungen zu reagieren und fundierte Entscheidungen in Echtzeit zu treffen. Allerdings sollten wir auch berücksichtigen das Near-Realtime-Daten hier oft ausreichend sein können, da sie eine schnellere Aktualisierung bieten als tägliche Daten, aber nicht unmittelbar in Echtzeit sind. Diese Art von Daten eignet sich gut für die Überwachung von KPIs und die Analyse von Trends oder Entwicklungen, oder? Auf der anderen Seite können einmal täglich aktualisierte Daten für die Analysen geeignet sein, insbesondere wenn es um Trends und strategische Entscheidungen geht. In solchen Fällen kann es ausreichen, auf vortagesaktuelle Daten zurückzugreifen, um Einblicke in die Leistung des Unternehmens zu gewinnen. Hier stellt sich jedoch die Frage, ob neue Ansätze notwendig sind, um mit der sich ständig wandelnden Geschäftswelt Schritt zu halten. Die Lambda-Architektur bietet eine Möglichkeit, verschiedene Arten von Daten zu verarbeiten und zu speichern, sowohl in Echtzeit als auch in Batch-Verarbeitung. Die Kombination von Echtzeit- und Batch-Datenverarbeitung ermöglicht es Unternehmen flexibel auf ihre spezifischen Anforderungen zu reagieren und die Vorteile beider Ansätze zu nutzen. Insgesamt ist es wichtig, die Anforderungen und Szenarien des Unternehmens genau zu verstehen, um festzustellen, wie viel Realtime im BI sinnvoll ist und was der Kunde wirklich für seine Anforderungen benötigt. Dies erfordert eine sorgfältige Abwägung zwischen den Vorteilen der Echtzeitdaten und den damit verbundenen Kosten und technischen Herausforderungen. Aber was hat das Ganze mit Lambda-Architektur, Direct Lake und dem Data Activator in Power BI zu tun? Hört rein, wie unsere Erfahrungen damit sind und was das Ganze mit Schrauben, Golf und der BI Pyramide zu tun hat. Werden wir diesmal einer Meinung sein? Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!