Schlagwort: Self-Service

  • #067 Wie verstehen wir Datenprodukte?

    Datenprodukte sind speziell entwickelte Anwendungen, Tools oder Systeme, die aus vorhandenen Daten nützliche Informationen und Erkenntnisse generieren. Sie entstehen durch Prozesse, die Daten sammeln, verarbeiten, analysieren und präsentieren, um sie für Nutzer wertvoll und zugänglich zu machen. Aber ist das wirklich alles? Gibt es klare Definitionen, was dazu gehört, wie beispielsweise Berichte, Dashboards, Algorithmen, APIs oder ganze Analytikplattformen? Oder sind diese Themen unterschiedlich, weil jeder eine andere Sicht auf die Inhalte von Datenprodukten hat? Beginnt man mit der Sammlung von Daten aus unterschiedlichen Quellen oder klar festgelegten Systemen? Obwohl diese Themen für den Endverbraucher oft uninteressant sind, sind sie entscheidend für die Qualität und Inhalte der Datenprodukte. Welche Perspektiven gibt es bei der Erstellung und Nutzung von Datenprodukten? Aus Sicht des Erstellers eines Datenprodukts sind mehrere Elemente wichtig. Dazu gehören ein Prüfsiegel zur Qualitätssicherung, eine klare Spezifikation der Anforderungen, ein Handbuch zur Nutzung und die Bewerbung des Produkts. Aus Sicht des Konsumenten liegt der Schwerpunkt auf der Bedienbarkeit. Ein Datenprodukt muss so gestaltet sein, dass der Nutzer es leicht verstehen und anwenden kann, um die Akzeptanz zu maximieren. Datenprodukte sollen dazu beitragen, datengetriebene Entscheidungen zu erleichtern und die Effizienz sowie die Genauigkeit von Geschäftsprozessen zu steigern. Sehen Andreas und Marcus das genauso wie viele Experten oder haben sie dazu eine andere Meinung? Welche Erfahrungen haben sie in Ihren BI-Projekten damit gemacht? Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #063 Kaufen oder selber machen?

    In der komplexen Welt des Business Intelligence (BI) steht man oft vor der grundlegenden Entscheidung: Soll man eine Lösung kaufen oder selbst entwickeln? Diese Entscheidung hängt von einer Vielzahl von Faktoren ab und ist selten einfach zu treffen. Es ist eine "It depends"-Entscheidung, die von vielen Variablen beeinflusst wird. Ein wichtiger Aspekt bei dieser Entscheidung sind die Kosten. Doch dieser umfasst weit mehr als nur den reinen finanziellen Aufwand. Natürlich spielen Budgetbeschränkungen eine Rolle, aber auch Zeit, Ressourcen und die langfristige Weiterentwicklung der Lösung sind entscheidende Faktoren. Es gilt, die Gesamtkosten zu analysieren und abzuwägen, ob der Kauf einer Lösung oder die Eigenentwicklung langfristig die wirtschaftlichste Option ist. Wenn dann die Fragen kommen, wo sollen die Daten gespeichert werden hat die Auswahl des richtigen Speicherorts Auswirkungen auf die Sicherheit, Skalierbarkeit und Verfügbarkeit der Daten. Die Wahl der Programmiersprache kann die Effizienz der Entwicklung erheblich beeinflussen. Dabei stellt sich die Frage, ob eine bereits im Unternehmen vorhandene Sprache genutzt oder eine spezialisiertere verwendet werden soll. Maßgeschneiderte Lösungen können spezifische Unternehmensanforderungen ideal erfüllen, erfordern jedoch umfangreiche Ressourcen an Know-how, Personen und Zeit. Die Erweiterbarkeit der Lösung ist ebenfalls entscheidend: Kann sie zukünftige Anforderungen und Entwicklungen berücksichtigen? Es ist wichtig, alle relevanten Aspekte sorgfältig zu prüfen, um die beste Lösung zu finden. Neben technischen Überlegungen sollten auch praktische Implikationen wie Kosten-Nutzen-Analysen, Schulungsbedarfe und potenzielle Auswirkungen auf die zukünftige Datenanalyse berücksichtigt werden. Aber was das bei Andreas und Marcus mit dem Brötchenkauf beim Bäcker oder Entscheidung beim Autokauf und individuellen Anpassungen zu tun hat? Hört einfach mal rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #062 Ist Excel doch das beste BI Werkzeug?

    In einer Welt, in der sich Technologie ständig weiterentwickelt und neue Lösungen für komplexe Probleme bieten, ist es entscheidend, zu hinterfragen, ob bewährte Tools wie Excel immer noch die beste Wahl für Business Intelligence (BI) sind oder ob neue Werkzeuge neue Maßstäbe setzen können. Diese Frage wirft ein Licht auf die Dynamik zwischen Tradition und Fortschritt in der Welt der Datenanalyse und -verarbeitung. Excel, ein Urgestein unter den Softwareanwendungen, hat sich über die Jahre als unverzichtbares Werkzeug für die Verwaltung von Daten und die Erstellung von Berichten etabliert. Seine Benutzerfreundlichkeit und weitreichende Verbreitung machen es für viele Unternehmen zur ersten Wahl für ihre BI-Anforderungen. Doch während Excel nach wie vor seine Stärken hat, stellen sich Fragen nach seiner Eignung für die modernen Herausforderungen der Datenanalyse. Kann Excel die komplexen Anforderungen moderner Datenanalysen erfüllen oder sind spezialisiertere Werkzeuge besser die neue Lösungsansätze bieten? Neue Entwicklungen in der Softwarelandschaft werfen immer wieder die Diskussion auf: Ist Excel noch zeitgemäß als BI-Werkzeug oder gehört Excel aufs Abstellgleis? Haben innovative BI-Plattformen Potenzial die Anforderungen der modernen Datenanalyse ohne weiteres zu bewerkstelligen? Wir betrachten nicht nur die technischen Aspekte, sondern auch die praktischen Implikationen für Unternehmen. Kosten-Nutzen-Analyse verschiedener BI-Plattformen, die Schulungsbedarfe für Mitarbeiter und die potenziellen Auswirkungen auf die zukünftige Datenanalyse. Sind sich Andreas und Marcus einig und bleibt Excel ein äußerst vielseitiges Werkzeug das komplexe Datenanalysen ermöglicht! Oder etwa nicht? Hört rein, welche Erfahrungen Andreas und Marcus in Ihren Projekten dazu gemacht haben. Natürlich gibt es auch wieder drei interessante Takeaways für euch!

  • #061 Wie nähern wir uns neuen Funktionen, wie dem Direct Lake?

    Tauche ein in die faszinierende Welt des Direct Lake und entdecke, wie wir uns neuen Funktionen nähern. Hier dreht sich alles um frische Themen und Funktionen, die neue Möglichkeiten versprechen. Neue Features werden mit Begeisterung angepriesen, und es gibt keine Grenzen für die Details, die wir erkunden können. Wir tauchen tief ein, um jedes neue Feature zu verstehen und zu optimieren. Und wenn es um Framing, Syncing und Cache-Warming geht, stellen wir sicher, dass das Datenmodell und der Datenfluss optimal bleiben. So bleibt unser Reporting jederzeit einsatzbereit. Doch lassen wir auch keine Fragen offen, was 50 Shades of Direct Lake und Nicola damit zu tun haben... Auch bestehende Features und Funktionen, wie etwa den Datalake, müssen wir stets im Blick behalten. Das Produkt bleibt nicht stehen, sondern entwickelt sich kontinuierlich weiter und erhält neue Funktionen. Doch müssen wir diese immer vorab ausprobieren, bevor wir sie beim Kunden präsentieren? Oder ist der Übergang eher mit einem Beipackzettel zu neuen Medikamenten vergleichbar, der mitunter schmerzhaft sein kann? Die Veränderung ist unausweichlich. Wir hatten nie erwartet, dass sie einfach sein würde, aber wir glauben, dass sich der Aufwand lohnt. Was das Ganze mit einer Westernstadt und Kassettenrecorder zu tun hat hört euch gerne an. Es ist Zeit, den Horizont zu erweitern und die Möglichkeiten zu erkunden, die Fabric, Datalake und Direct Lake uns bieten. Lass uns diese neuen Funktionen anfassen und erleben. So erfahren wir direkt, wie sie unseren BI-Alltag erleichtern, oder nicht? Hört mal rein, wie Andreas und Marcus neue Themen und Features bei Ihrem Lieblingsprodukt sehen und was ihre Einschätzungen, Erfahrungen mit den bekannten und neuen Technologien sind. Wie ist deine Meinung dazu? Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #060 Wann teilt man Datenmodell und Visualisierung?

    Ist da nach einem Rückblick auf die letzten 10 Folgen noch Zeit für ein neues Thema? Im Schnelldurchlauf geht es durch die vergangenen 10 Folgen über Erfahrungen im Home-Office, Entwicklungen, Performanceoptimierung, Standardisierung und Data Driven People. In der sich ständig wandelnden Welt der Informationstechnologie steht eine entscheidende Frage im Mittelpunkt: Sollten wir unseren Benutzern die volle Kontrolle über ihre digitalen Erfahrungen geben oder lieber die Systeme streng voneinander trennen? Es ist die ultimative Auseinandersetzung zwischen Freiheit und Sicherheit, Effizienz und Kontrolle. Auf der einen Seite steht der Self-Service, ein Konzept, das die Grenzen zwischen dem Benutzer und der IT verschwimmen lässt. Mit einem Fingertipp können Benutzer tiefe Einblicke in Datenbanken und Daten erhalten – alles ohne die Wartezeit auf IT-Support. Doch auf der anderen Seite lauert die dunkle Seite der IT – die Systemtrennung. Hier werden die Grenzen klar gezogen, um sensible Informationen zu schützen und sicherzustellen, dass wir Compliance-Vorschriften einhalten. Der Zugang ist streng reglementiert, und nur autorisierte Anwenderkreise dürfen durch die Tore dieser digitalen Festung treten. Aber müssen wir wirklich zwischen diesen beiden Welten wählen? Ist es möglich, die Freiheit über unsere Datenhoheit zu entfesseln, ohne dabei die Sicherheit zu gefährden? Vielleicht liegt die Zukunft der Informationstechnologie genau in dieser Frage – in der Kunst, die Vorteile des Self-Service zu nutzen, ohne dabei die Notwendigkeit der Systemtrennung zu vernachlässigen. Willkommen in der digitalen Ära, wo jede Entscheidung einen neuen Weg in die Zukunft ebnet. Bereit, die Grenzen des Möglichen zu überschreiten? Sind Marcus und Andreas da einer Meinung oder trennen Self-Service vs. Trennung der Systeme auch Sie? Hört mal rein, was Marcus und Andreas in ihrem BI-Leben erlebt haben, was ihre Erfahrungen mit den bekannten und neuen Technologien sind und wie Ihre Meinung dazu ist. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #055 Wie bekommen wir Performance ins BI-System?

    In der modernen Welt ist Performance der Schlüssel für eine reibungslose Funktionalität von Business Intelligence-Systemen. Es ist entscheidend, sich dabei nicht in den Details des Codes zu verlieren, sondern den Fokus auf effiziente Lösungen zu legen. Doch was geschieht, wenn Performanceprobleme auftreten? Wie steht es um den Wissensstand und die Ausbildung? Ist der vermeintlich langsame Bericht tatsächlich langsam oder nur ein Gefühl? Können Schulungen im Vorfeld einer fehlerhaften Implementierung entgegenwirken? Ein zentraler Aspekt der Berichtsperformance ist der Ort, an dem die Berechnungen stattfinden. Während in der Demo alles reibungslos ablaufen mag, können in der Produktion Engpässe entstehen, insbesondere wenn Berechnungen auf dem Server oder im Browser durchgeführt werden. Es ist von großer Bedeutung, den genauen Ort der Berechnungen zu überprüfen und sicherzustellen, dass die Serverkapazitäten ausreichend sind. Kann man durch einfache Regeln die Performance sicherstellen? Ist es sinnvoll, beim Laden der Daten Zeit in Kauf zu nehmen, um später in der Berichtsperformance Gewinne zu erzielen? Eine bewusste Ausrichtung auf Performance, nicht nur technologisch, sondern auch im Hinblick auf ökologische Nachhaltigkeit, spielt eine entscheidende Rolle. Ist dies bereits Green IT? Effiziente Abläufe tragen nicht nur zur optimalen Nutzung von Ressourcen bei, sondern minimieren auch den ökologischen Fußabdruck. In diesem Zusammenhang sind klare Verantwortlichkeiten, effektive Teamzusammenarbeit und der Einsatz geeigneter Werkzeuge entscheidend. Nur so kann gewährleistet werden, dass der ressourcenschonende Einsatz ohne Einbußen bei der Analyseperformance den Anforderungen gerecht wird. Hört rein, wie Marcus und Andreas durch ihre Erfahrungen in Kundenprojekten geprägt sind. Sind sie diesmal einer Meinung? Natürlich dürfen die drei Dinge für den Nachhauseweg nicht fehlen – seid gespannt darauf, was die beiden Experten zu erzählen haben!

  • #52 Wie viele Schichten braucht eine BI-Lösung?

    In der Welt des Business Intelligence sind die Schichten wie Bausteine. Sie dienen dazu, Daten auf unterschiedlichen Ebenen zu organisieren und zu verarbeiten. Einige Aufgaben lassen sich effektiver durch SQL realisieren, während andere in Spark ihre Stärken entfalten. Die Wahl der Technologie hängt von der Natur der Aufgabe, den Fähigkeiten der Entwickler und den spezifischen Anforderungen ab, oder? Wenn man die verschiedenen Schichten jetzt als Schnittstelle zwischen den Datenquellen, den Verarbeitungsschritten und den Analysewerkzeugen betrachtet, wie viele Schichten benötigt man dann? Was sind in diesem Kontext denn Bronze, Silber und Gold, bringen sie die den Glanz in die BI-Welt? Doch, halt mal! Ist es nicht entscheidend, wer da vor den Daten steht und wie er sie nutzt? Sind Bronze, Silber und Gold vielleicht sogar Statements darüber, wie wir mit den Daten umgehen? Haben Andreas und Marcus da ihre Präferenzen, wenn es um das BI-Modell geht? Gibt es eine klare Empfehlung, oder ist das Ganze so individuell wie ein maßgeschneiderter Anzug? Hört mal rein, was Marcus und Andreas dazu denken und wie ihre Erfahrungen sind. Können sie die 3 Dinge für den Nachhauseweg wieder empfehlen?

  • #050 Sind BI-Projekte immer nur Fortschritt?

    Ist da nach einem Rückblick auf die letzten 10 Folgen noch Zeit für ein neues Thema? Im Schnelldurchlauf geht es durch die vergangenen Folgen über Erfahrungen im Business, KI, drjve Arena, Cloud oder gar die Zukunft von Business Intelligence. Unser Thema heute: Können innovative Technologien die Effizienz steigern und Analysen verbessern, oder birgt die Integration auch neue Herausforderungen wie Schulungsbedarf und Kompatibilitätsprobleme mit sich? Hängt der Erfolg von einer ausgewogenen Umsetzung und einem klaren Verständnis der Geschäftsanforderungen ab? Innovative Technologien wie Datalakes, Tabulare Modelle und Power BI haben das Potenzial, die Effizienz zu steigern und Analysen zu verbessern. Allerdings birgt die Integration auch Herausforderungen wie Schulungsbedarf und Kompatibilitätsprobleme. Der Erfolg hängt von einer ausgewogenen Umsetzung und einem klaren Verständnis der Geschäftsanforderungen ab. Power BI ermöglicht wiederum eine benutzerfreundliche und komplette Bearbeitung und Beladung der Daten, darüber hinaus eine einfache Visualisierung. Die Nutzung dieser Technologien erfordern eine sorgfältige Planung, um sicherzustellen, dass die gewählten Strukturen den Geschäftsanforderungen entsprechen und reibungslos integriert werden können. Ein ausgewogenes Verständnis und die effektive Schulung der Teams sind entscheidend, um den Fortschritt zu maximieren und Rückschritte zu vermeiden. Die neue Art BI zu realisieren, bedeutet auch ein Umdenken, oder ist es ganz einfach? Oder bleibt man besser bei dem, was man kennt und beherrscht? Sind Marcus und Andreas da einer Meinung oder sind Datalakes auch nur eine neue Art der Datenspeicherung und Nutzung mit neuen Anforderungen an die Analysewerkzeuge? Hört mal rein, was Marcus und Andreas in der ihrem BI-Leben erlebt haben, was ihre Erfahrungen mit den bekannten und neuen Technologien sind und wie Ihre Meinung dazu ist. Auch die 3 Dinge für den Nachhauseweg sind wieder dabei, oder?

  • #048 Warum sollte man das Lakehouse als Datengrundlage nutzen? Gast: Kevin Sames

    Ein modernes BI-Projekt ist ein Schlüsselbestandteil einer erfolgreichen Unternehmensstrategie. Es beinhaltet die umfassende Datenerfassung, Analyse und Anwendung, um fundierte geschäftliche Entscheidungen zu treffen. In dieser Podcast-Episode wird Kevin, unser Data & ML Engineer, erläutern, warum Datenplattformen und Technologien wie Lakehouse, Fabric, Synapse, Parquet, Spark und Iceberg die Arbeit verbessern und was das Ganze mit Algebra zu tun hat. Das Ganze wird aufregend, wenn man versteht, welche Rolle Grafikkarten und Mainboards in Kombination mit Self-Service spielen. Es ist, als ob wir eine Tür öffnen, doch stellt sich die Frage: Handelt es sich um eine Einbahnstraße, oder, wie die "Jungen Wilden" sagen, um ein Oneway Door? Was früher nicht möglich war ist heute ganz einfach, wenn man die technischen Möglichkeiten versteht. Doch welchen Einfluss hat dies auf Governance, Teams und die Synchronisation der Arbeitsweise? Es ist beruhigend zu wissen, dass klare Namenskonventionen und Richtlinien selbst in dieser dynamischen Umgebung die Arbeit effizienter gestalten. Andreas und Marcus führen ein inspirierendes Gespräch mit Kevin über die vielfältigen Anwendungsmöglichkeiten des Lakehouse-Konzepts im Bereich Business Intelligence. Können wir zusammen mit Kevin klare Empfehlungen geben, wie Sie Ihr BI-Projekt optimal auf die zukünftigen Herausforderungen in der Welt der Daten vorbereiten? Tauchen Sie ein in diese spannende Podcast-Episode, um Ihr Verständnis für die moderne Datenwelt zu vertiefen! Und wie immer präsentieren wir Ihnen zum Schluss drei Empfehlungen für den Nachhauseweg, die Sie auf keinen Fall verpassen sollten. Hören sie einfach rein.

  • #044 Kann das BI-Projekt günstig nebenbei laufen?

    Ob es sich um ein aufstrebendes Startup handelt, das nach Geschäftsanalysen sucht, oder um ein etabliertes Unternehmen, das seine Effizienz steigern möchte – in dieser Episode bieten wir euch wertvolle Einblicke in die Umsetzung eures BI-Projekts und ob es nebenbei erfolgreich betrieben werden kann. Wir diskutieren die entscheidende Frage, ob ein Werksstudent, der das Projekt als Praktikumsarbeit übernimmt, ausreicht, oder ob es sinnvoll ist, den Fachbereich und die IT ernsthaft einzubeziehen. Dabei beleuchten wir auch die Wichtigkeit die richtigen Ressourcen für das Vorhaben zu identifizieren und den Teammitgliedern zuzuteilen. Andreas und Marcus führen ein spannendes Gespräch über die Verknüpfungen zwischen Business Intelligence und dem Kauf eines Fahrzeugs, die in dieser Folge näher erläutert werden. Können wir klare Empfehlungen geben, wie Ihr euer BI-Projekt kosteneffizient und erfolgreich angehen könnt? Höre jetzt rein, um mehr zu erfahren! Und wie immer präsentieren wir euch zum Schluss drei Empfehlungen für den Nachhauseweg, die Ihr auf keinen Fall verpassen solltet.