Willkommen beim Google Business Intelligence-Zertifikat

Video 01

Unsere Welt verändert und verändert sich ständig. Überall arbeiten Unternehmen daran, den Weg zum nächsten großen Ding zu weisen, und Verbraucher erwarten schnelle, aufregende Produkteinführungen und Pakete, die wie von Zauberhand an ihre Haustür geliefert werden. Bei all diesen unglaublichen Veränderungen ist der Wert der Geschwindigkeit unermesslich geworden. Es ist heute wirklich einer der wichtigsten Faktoren für den Geschäftserfolg. Schließlich ist die Fähigkeit, ein Problem oder eine Chance zu erkennen, großartig, aber ein echter Wert entsteht dann, wenn man das Problem erkennt, bevor es zu einem großen Problem wird, oder wenn man diese Chance vor der Konkurrenz nutzt. Heutzutage gibt es mehr Daten über Marktplätze, Organisationen, Kunden, Wettbewerber und Mitarbeiter als je zuvor, aber wir brauchen mehr als nur Daten, um bessere Entscheidungen zu treffen und schnelle Ergebnisse zu liefern. Und hier kommt die Intelligenz ins Spiel: Business Intelligence. Business Intelligence oder BI umfasst die Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen. Mit anderen Worten: Indem Organisationen den Entscheidungsträgern zeigen, was gerade passiert, werden sie intelligenter und erfolgreicher. Ein landesweiter Restaurantkonzern könnte Millionen von Kundenbelegen analysieren, um seine Lebensmittelversorgung zu optimieren und Verschwendung zu reduzieren, oder ein örtliches Krankenhaus könnte zahlreiche verschiedene Datenquellen integrieren, um Feedback und Ergebnisse zu überprüfen und so das Patientenerlebnis zu personalisieren, oder vielleicht ein globales Produktionsunternehmen Lieferkettendaten aus der ganzen Welt, um präzisere Nachfrageprognosen zu erstellen und angemessene Lagerbestände sicherzustellen. Die BI-Anwendungen sind endlos, ebenso wie die BI-Karrieremöglichkeiten. Das Fachgebiet umfasst so unterschiedliche Organisationen und Branchen, dass es für Sie immer einen Weg gibt, wo auch immer Ihr Interesse liegt. Allein in diesem Programm erfahren Sie alles über alles, von Geräteherstellern über Lebensmittelgeschäfte und lokale Handwerker bis hin zu Unternehmen für künstliche Intelligenz. BI-Experten hinterlassen überall etwas. Mein Name ist Sally und ich bin Business Intelligence Analyst bei Google. Ich freue mich, Sie beim Google Business Intelligence Career Certificate begrüßen zu dürfen. Ich werde Ihr Ausbilder für den ersten Kurs dieses Programms sein. Der Abschluss eines Google Career-Zertifikats wie dieses hilft Ihnen dabei, relevante Fähigkeiten zu entwickeln, nach denen Arbeitgeber bei der Einstellung von Business-Intelligence-Talenten suchen. Sie lernen, die Werkzeuge eines schnell wachsenden, hochbezahlten Bereichs zu nutzen, und können nach Ihrem Abschluss mit Hunderten von Arbeitgebern in den USA in Kontakt treten, die daran interessiert sind, Absolventen des Google Career Certificate einzustellen. Das Programm soll Sie in drei bis sechs Monaten auf einen Job vorbereiten, wenn Sie in Teilzeit am Zertifikat arbeiten. Und es ist wirklich flexibel. Es gibt nur drei Kurse, die Sie zu Ihren eigenen Bedingungen und in Ihrem eigenen Tempo absolvieren können, alle online. Egal, ob Sie den Beruf wechseln, einen neuen Job finden, Ihre Fähigkeiten verbessern oder ein Unternehmen aufbauen möchten, Google Career Certificates können Ihnen Türen zu neuen Möglichkeiten öffnen. Sie kennen mich vielleicht vom Google Data Analytics-Zertifikat, das eine wichtige Grundlage für dieses Programm darstellt. Was Sie hier lernen werden, basiert auf dieser Grundlage. Sie sollten also sicherstellen, dass Sie zuerst dieses Zertifikat erwerben oder unsere bevorstehende Selbstbewertung nutzen, um sicherzustellen, dass Sie über vergleichbare Kenntnisse verfügen. Ich stehe Ihnen während des gesamten ersten Kurses zur Seite und stelle sicher, dass Sie lernen, was Sie für Ihren Erfolg benötigen. Ich liebe die Welt der BI und arbeite sehr gerne mit SQL und beschäftige mich mit der technischen Seite der Analyse zur Unterstützung von Googles People Operations. Dieses Team widmet sich der Personalbesetzung, Entwicklung und einer ausgeprägten und integrativen Kultur bei Google. Aber ich habe nicht mit BI angefangen. Als ich zum ersten Mal über meinen beruflichen Weg nachdachte, war ich daran interessiert, Arzt zu werden, aber am Ende gefielen mir die Biowissenschaften so gut, dass ich beschloss, biomedizinische Forscherin zu werden. Natürlich handelt es sich bei der Datenanalyse um die Wissenschaft der Daten, daher machte es irgendwie Sinn, dass dieses Fachgebiet im Laufe der Zeit mein Interesse geweckt hat. Ich habe meine Karriere als Analyst begonnen und hier bin ich. Das ist nur ein Beispiel und jeder Mensch hat eine andere Erfahrung. Tatsächlich wurden die Google Career-Zertifikate von Branchenexperten mit jahrzehntelanger Erfahrung entwickelt, und Sie werden von einem anderen Experten von Google durch jeden Kurs geführt. Wir geben unser Wissen in Videos weiter, helfen Ihnen beim Üben mit praktischen Aktivitäten und führen Sie durch Szenarien, denen Sie bei der Arbeit begegnen könnten. Lernen Sie zunächst meinen Teamkollegen Ed kennen.
Video abspielen, beginnend bei :4:28 und dem Transkript folgen4:28
Hallo, ich bin Ed und Produktmanager bei Google. Gemeinsam werden wir uns mit Datenmodellierung und ETL befassen, was für Extrahieren, Transformieren und Laden steht. Es geht darum, Daten dorthin zu bringen, wo und wie Sie sie benötigen, damit Sie sie analysieren und überwachen können. Als nächstes triffst du Terrence. Hallo, ich bin Terrence und ich bin Senior Business Intelligence Analyst. Ich freue mich wirklich darauf, Zeit mit Ihnen zu verbringen, während Sie entdecken, wie man a

Übersicht über das Google Business Intelligence-Zertifikat

Hallo und willkommen beim Google Business Intelligence-Zertifikat ! In diesem Programm erkunden Sie das wachsende Feld der Business Intelligence (BI), erfahren, wie wichtig BI für Unternehmen und die Menschen, denen sie dienen, wichtig ist, und entwickeln die relevanten Fähigkeiten für eine zukünftige Karriere in diesem Bereich. Durch den Abschluss der drei Kurse in diesem Zertifikatsprogramm bereiten Sie sich auf Einstiegspositionen im BI vor. Für den Abschluss des Programms sind keine BI-Vorkenntnisse erforderlich, grundlegende Kenntnisse in der Datenanalyse werden jedoch dringend empfohlen.

Betreten Sie ein wachsendes Feld

Unternehmen berichten darüberGrößte Qualifikationslückein der Datenanalyse, und die Nachfrage nach Datenanalysefähigkeiten wächst15-mal schnellerals die Nachfrage nach durchschnittlichen Qualifikationen in den USA. Jeder Geschäftsprozess in Organisationen aller Art und Größe erzeugt riesige Datenmengen. Diese Daten können an verschiedenen Orten und in unterschiedlichen Formaten gespeichert werden, die schwer zugänglich sind und keine nützlichen Erkenntnisse liefern. Um diese Daten effektiv für Geschäftsentscheidungen nutzen zu können, müssen sie abgerufen, strukturiert, interpretiert und in verwendbaren Formaten berichtet werden, die es den Beteiligten ermöglichen, sie zu verstehen und zu handeln. BI-Experten spielen in diesem Prozess eine äußerst wichtige Rolle: Sie verwalten den Datenabruf; Daten organisieren; Interpretieren Sie Daten auf unterschiedliche Weise, um sie an das vorliegende Problem anzupassen. und erstellen Sie Datenvisualisierungen, Dashboards und andere Tools, um Stakeholder-bereite Erkenntnisse bereitzustellen.

Während dieses Programms haben Sie mehrere Möglichkeiten, Ihre BI-Kenntnisse und -Fähigkeiten weiterzuentwickeln. Sie erkunden Konzepte und Szenarien, um zu erfahren, was ein BI-Einsteiger wissen und leisten können muss, um in diesem Bereich erfolgreich zu sein.

Kurse zum Google Business Intelligence-Zertifikat

Das Google Business Intelligence-Zertifikat besteht aus drei Kursen. Während jedes Kurses absolvieren Sie praktische Aufgaben und Projekte, die sowohl auf den täglichen Aufgaben als auch auf den praktischen Aktivitäten eines BI-Experten basieren. Sie erfahren mehr über die Rolle eines BI-Experten in einer Organisation und erfahren, wie Sie Tools und Prozesse erstellen, die den Entscheidungsprozess unterstützen. Und Sie erstellen dynamische Berichte und Dashboards, die Datentrends nahezu in Echtzeit kommunizieren. Am Ende jedes Kurses haben Sie außerdem die Möglichkeit, einen neuen Schritt in einem Portfolio-Abschlussprojekt abzuschließen, bei dem Sie Ihre neuen Fähigkeiten in die Praxis umsetzen und potenziellen Arbeitgebern demonstrieren, was Sie gelernt haben. Die Kurse des Programms sind wie folgt:

  1. Grundlagen der Business Intelligence (aktueller Kurs) 

  2. Der Weg zu Erkenntnissen: Datenmodelle und Pipelines 

  3. Entscheidungen, Entscheidungen: Dashboards und Berichte 

Drei Symbole zeigen die Kurse der Reihe nach von links nach rechts an

Inhalt des Google Data Analytics-Zertifikats

Die Kurse des Google Business Intelligence-Zertifikats bauen auf vielen grundlegenden Konzepten auf, die im Google Business Intelligence-Zertifikat untersucht werdenGoogle Data Analytics-Zertifikat. Während dieses Programms werden Sie auf Links zu Inhalten des Google Data Analytics-Zertifikats stoßen. Dieses Material soll eine optionale Überprüfung bieten und als nützliche Ressource dienen. 

Vorteile für Arbeitssuchende

Nach Abschluss aller drei Kurse erhalten Absolventen des Google Business Intelligence-Zertifikats Zugang zu exklusiven Ressourcen für die Jobsuche, bereitgestellt von Google. Sie haben die Möglichkeit:

  • Erstellen Sie Ihren Lebenslauf, nehmen Sie an Probeinterviews teil und erhalten Sie Tipps für die Jobsuche über Big Interview, eine Plattform für Berufsausbildung, die für Programmabsolventen kostenlos ist.

  • Verbessern Sie Ihre Interviewtechnik mit Interview Warmup, einem Tool, das von Google speziell für Absolventen von Zertifikaten entwickelt wurde. Greifen Sie auf Business-Intelligence-spezifische Übungsfragen, Transkripte Ihrer Antworten und automatische Erkenntnisse zu, die Ihnen helfen, Ihre Fähigkeiten und Ihr Selbstvertrauen zu stärken.

  • Greifen Sie mit Career Circle auf Tausende von Stellenausschreibungen und kostenloses Einzel-Karriere-Coaching zu. (Um beizutreten, müssen Sie berechtigt sein, in den USA zu arbeiten.)

  • Fordern Sie Ihr Google Business Intelligence-Zertifikatsabzeichen an und teilen Sie Ihre Erfolge auf LinkedIn, um sich bei potenziellen Arbeitgebern von anderen Kandidaten abzuheben. 

Herzlichen Glückwunsch zu diesem ersten Schritt zum Aufbau Ihrer Fähigkeiten für eine Karriere im Bereich Business Intelligence. Geniesse die Reise!

Überblick über Kurs 1

 
Willkommensbanner für Kurs 1

Hallo und willkommen bei Foundations of Business Intelligence , dem ersten Kurs zum Google Business Intelligence-Zertifikat. Sie beginnen eine aufregende Reise!

Am Ende dieses Kurses erfahren Sie, welche Rolle Business-Intelligence-Experten (BI) in einem Unternehmen spielen, erfahren, wie Daten in Geschäftsprozessen und bei der Entscheidungsfindung verwendet werden, und untersuchen BI-Tools, die Sie bei der Arbeit verwenden können. 

Kursbeschreibung

Das Google Business Intelligence-Zertifikat besteht aus drei Kursen. Der erste Kurs ist „  Grundlagen der Business Intelligence“ .

Drei Symbole zeigen Kurse nacheinander von links nach rechts an, wobei Kurs 1 hervorgehoben ist
  1. Grundlagen der Business Intelligence – ( aktueller Kurs ) Entdecken Sie die Rolle von BI-Experten innerhalb einer Organisation und die Karrierewege, die sie normalerweise einschlagen. Entdecken Sie anschließend die wichtigsten BI-Praktiken und -Tools und erfahren Sie, wie BI-Experten sie nutzen, um einen positiven Einfluss auf Unternehmen zu erzielen. 

  2. Der Weg zu Erkenntnissen: Datenmodelle und Pipelines— Entdecken Sie Datenmodellierungs- und ETL-Prozesse zum Extrahieren von Daten aus Quellsystemen, zum Umwandeln in Formate, die eine bessere Analyse ermöglichen und Geschäftsprozesse und -ziele vorantreiben.

  3. Entscheidungen, Entscheidungen: Dashboards und Berichte— Wenden Sie Ihr Wissen über BI und Datenmodellierung an, um dynamische Dashboards zu erstellen, die wichtige Leistungsindikatoren verfolgen, um den Anforderungen der Stakeholder gerecht zu werden.

Inhalt von Kurs 1

Jeder Kurs dieses Zertifikatsprogramms ist in Module unterteilt. Sie können Kurse in Ihrem eigenen Tempo absolvieren, die Modulaufschlüsselung soll Ihnen jedoch dabei helfen, das gesamte Google Business Intelligence-Zertifikat in zwei bis vier Monaten abzuschließen.

Was kommt? Hier finden Sie einen kurzen Überblick über die Fähigkeiten, die Sie in den einzelnen Modulen dieses Kurses erlernen.

Fünf Symbole zeigen den Kurs an, den die vier Module der Reihe nach von links nach rechts absolvieren

Modul 1: Datengesteuerte Ergebnisse durch Business Intelligence

Beginnen Sie Ihre Reise in die Business Intelligence! Finden Sie heraus, was Sie für Kurs 1 und das gesamte Zertifikatsprogramm erwartet. Sie lernen die Coursera-Plattform, die Verfahren und Inhaltstypen kennen und treffen andere Lernende im Programm. Anschließend lernen Sie die BI-Branche und die Rollen von BI-Analysten und -Ingenieuren kennen. Sie werden in BI-Tools und -Techniken eingeführt, um Geschäftsentscheidungen zu treffen und Prozesse zu verbessern. Abschließend lernen Sie die Gemeinsamkeiten und Unterschiede zwischen den beiden Bereichen BI und Datenanalyse kennen. 

Modul 2: Business-Intelligence-Tools und -Techniken

Nachdem Sie eine solide Grundlage in den Grundlagen von BI geschaffen haben, konzentrieren Sie sich auf den eigentlichen BI-Prozess. Dabei geht es darum, zu lernen, wie man effektiv mit Stakeholdern interagiert, BI-Tools nutzt, um die verfügbaren Daten optimal zu nutzen, und die Möglichkeiten der schnellen Überwachung zu nutzen, um intelligente Geschäftsentscheidungen zu treffen. Darüber hinaus beginnen Sie mit dem Aufbau einiger Karriereressourcen, indem Sie Ihre Online-Präsenz verbessern, Strategien für Networking und Mentoring entwickeln und ein Portfolio erstellen, das zukünftige Personalmanager beeindrucken wird. 

Modul 3: Der Kontext ist entscheidend für zielgerichtete Erkenntnisse

In diesem Teil des Kurses werden Sie die Datenbeschränkung des Kontexts aus BI-Perspektive erneut untersuchen. Anschließend erfahren Sie mehr über einige andere Datenbeschränkungen, einschließlich der Frage, wie Sie auf ständige Veränderungen reagieren und zeitnah auf Erkenntnisse zugreifen können. Sie erfahren außerdem Strategien, mit denen BI-Experten diese Einschränkungen vorhersehen und überwinden können. Abschließend erfahren Sie mehr über Metriken und deren Zusammenhang mit dem Kontext.

Modul 4: Abschlussprojekt von Kurs 1

In diesem Teil des Kurses schließen Sie ein BI-Portfolioprojekt auf der Grundlage einer BI-Fallstudie ab. Bei dieser erfahrungsorientierten Lernmöglichkeit können Sie entdecken, wie Unternehmen BI jeden Tag nutzen, und alles, was Sie über BI gelernt haben, auf überzeugende und lehrreiche Weise zusammenführen. Sie erfahren, wie Sie die spezifischen Arten von Branchen und Projekten identifizieren, die für Sie am interessantesten sind. Und Sie erhalten Strategien, um diese Geschäftsarten und BI-Aufgaben effektiv mit potenziellen Arbeitgebern zu besprechen. 

Was zu erwarten ist

Jeder Kurs bietet viele Arten von Lernmöglichkeiten:

  • Von Google-Lehrern geleitete Videos vermitteln neue Konzepte, führen in die Verwendung relevanter Tools ein, bieten Karriereunterstützung und liefern inspirierende persönliche Geschichten. 

  • Die Lesungen bauen auf den in den Videos behandelten Themen auf, stellen verwandte Konzepte vor, teilen nützliche Ressourcen und beschreiben Fallstudien.

  • Diskussionsaufforderungen erläutern Kursthemen zum besseren Verständnis und ermöglichen es Ihnen, mit anderen Lernenden im zu chatten und Ideen auszutauschenDiskussionsforen.

  • Durch Selbstüberprüfungsaktivitäten und Labore können Sie die Anwendung der erlernten Fertigkeiten praktisch üben und Ihre eigene Arbeit durch den Vergleich mit einem abgeschlossenen Beispiel bewerten.

  • Interaktive Plug-ins regen zum Üben konkreter Aufgaben an und unterstützen Sie bei der Integration des im Kurs erworbenen Wissens.

  • In-Video-Tests helfen Ihnen, Ihr Verständnis zu überprüfen, während Sie jedes Video durchgehen.

  • Mit Übungsquiz können Sie Ihr Verständnis wichtiger Konzepte überprüfen und wertvolles Feedback geben.

  • Benotete Tests zeigen Ihr Verständnis der Hauptkonzepte eines Kurses. Um ein Zertifikat zu erhalten, müssen Sie in jedem benoteten Quiz mindestens 80 % erreichen. Sie können ein benotetes Quiz auch mehrmals absolvieren, um eine bestandene Punktzahl zu erreichen.

Tipps für den Erfolg

  • Es wird dringend empfohlen, die Elemente in jeder Lektion in der Reihenfolge durchzugehen, in der sie erscheinen, da neue Informationen und Konzepte auf Vorkenntnissen aufbauen.

  • Nehmen Sie an allen Lernmöglichkeiten teil, um so viel Wissen und Erfahrung wie möglich zu sammeln.

  • Wenn etwas verwirrend ist, zögern Sie nicht, ein Video noch einmal abzuspielen, eine Lektüre zu wiederholen oder eine Selbstüberprüfungsaktivität zu wiederholen.

  • Nutzen Sie die zusätzlichen Ressourcen, auf die in diesem Kurs verwiesen wird. Sie sollen Ihr Lernen unterstützen. Alle diese Ressourcen finden Sie imRessourcenTab.

  • Wenn Sie in diesem Kurs auf nützliche Links stoßen, setzen Sie ein Lesezeichen darauf, damit Sie später auf die Informationen zurückgreifen können, um sie zu studieren oder zu überprüfen.

  • Verstehen und befolgen Sie dieCoursera-Verhaltenskodexum sicherzustellen, dass die Lerngemeinschaft für alle Mitglieder ein einladender, freundlicher und unterstützender Ort bleibt.

Einführung in Kurs 1

Video 02

Es gibt unzählige Gründe, eine Karriere im Bereich Business Intelligence anzustreben. Freude am analytischen Denken oder Interesse an Zahlen sind wunderbare Motivationen, um BI-Profi zu werden. Aber die Welt der BI bietet noch viel mehr. Vielleicht liegt es Ihnen am Herzen, Probleme zu lösen, Prozesse zu vereinfachen oder Schwachstellen für andere zu beseitigen. Vielleicht verfügen Sie über hervorragende Kommunikationsfähigkeiten und möchten diese nutzen, um Erkenntnisse auszutauschen und Ihrem Team dabei zu helfen, effektive Entscheidungen zu treffen. Viele BI-Mitarbeiter haben Spaß daran, Tools zu entwickeln, die Aufgaben rationalisieren und es ihren Kollegen ermöglichen, mehr Zeit für andere Projekte zu verwenden. BI-Profis lassen sich auf vielfältige Weise inspirieren. Aber als ich mit meinen Kollegen hier bei Google gesprochen habe, war das, was sie am meisten lieben, einfach ihre Talente einzusetzen, um andere Menschen glücklich zu machen. Es ist eine große Befriedigung zu wissen, dass man jemandem die Arbeit erleichtert oder ihm viel Zeit gespart hat. Und gerade jetzt haben Sie mich glücklich gemacht, weil Sie hier sind, um den spannenden und lohnenden Karriereweg des BI zu erkunden. In diesem ersten Kurs lernen Sie zunächst etwas über die BI-Branche. Wenn dies Neuland für Sie ist, erfahren Sie, wie Sie den Karriereweg und den Arbeitgebertyp ermitteln, der Ihren Fähigkeiten und Interessen am besten entspricht. Sie werden auch die Rollen von BI-Analysten im Vergleich zu BI-Ingenieuren betrachten. Wenn Sie bereits über BI-Erfahrung verfügen, öffnen wir Ihnen neue Türen zu weiteren faszinierenden Karrieremöglichkeiten. Sie werden verstehen, wie Sie ein BI-Projekt entwickeln, das Wirkung zeigt. Sie erhalten eine Einführung in BI-Tools und -Techniken, die Fachleute täglich nutzen, um Geschäftsentscheidungen zu treffen und Prozesse zu verbessern. Die Gemeinsamkeiten und Unterschiede zwischen BI und Data Analytics werden verdeutlicht. Und gemeinsam werden wir die Bedeutung des Kontexts bei der Arbeit mit Daten untersuchen und lernen, wie wir einige häufige Einschränkungen, wie z. B. menschliche Voreingenommenheit, überwinden können. Während des gesamten Programms erwerben Sie dann immer wieder neue Fähigkeiten. Mithilfe der Datenmodellierung entwerfen Sie Datenspeichersysteme wie Data Warehouses, Data Marts und Data Lakes. Sie wenden Datenpipelines und den ETL-Prozess an. Das Entwerfen und Interpretieren von Dashboards wird ein wesentlicher Bestandteil Ihres Lernens sein, ebenso wie die Kommunikation mit Stakeholdern über Ihre Ergebnisse. Abschließend bereiten Sie sich auf Ihre Jobsuche vor, indem Sie eine persönliche Strategie entwickeln, Ihr berufliches Netzwerk erweitern und Materialien vorbereiten. Die meisten Inhalte dieses Programms bauen auf grundlegenden Konzepten der Datenanalyse auf. Wenn Sie über Erfahrung in diesem Bereich verfügen oder Ihr Google Data Analytics-Zertifikat erworben haben, sind Sie bei uns genau richtig. Wenn Sie sich nicht sicher sind, ob Sie über die erforderlichen Voraussetzungen für dieses Programm verfügen, steht in Kürze ein unbenoteter Test zur Beurteilung Ihrer Eignung an. Darüber hinaus stellen wir in jedem Kurs hilfreiche Ressourcen aus dem Google Data Analytics-Zertifikat zur Verfügung, mit denen Sie wichtige Konzepte wiederholen können. Beginnen wir mit dem Aufbau Ihrer BI-Fähigkeiten und -Kenntnisse. Fahren Sie mit der nächsten Lektion fort, um den Schwung aufrechtzuerhalten.

Hilfreiche Ressourcen und Tipps

Als Lernender können Sie einen oder mehrere Kurse dieses Programms absolvieren. Um das Google Business Intelligence-Zertifikat zu erhalten, müssen Sie jedoch alle Kurse absolvieren. In dieser Lektüre wird beschrieben, was erforderlich ist, um ein Zertifikat zu erhalten, und Best Practices für eine gute Lernerfahrung auf Coursera.

Erhalten Sie das Google Business Intelligence-Zertifikat

Um Ihr offizielles Google Business Intelligence-Zertifikat zu erhalten, müssen Sie:

  • Bestehen Sie alle benoteten Aufgaben in allen drei Kursen des Zertifikatsprogramms. Jede benotete Aufgabe ist Teil einer kumulativen benoteten Punktzahl für den Kurs, und die Bestehensnote für jeden Kurs beträgt 80 %. 

UND  eines  der folgenden:

  • Zahlen Sie dieKurszertifikatgebühr,

  • Seien Sie zugelassen fürCoursera-Finanzhilfeoder

  • Füllen Sie das Zertifikat über eine Bildungseinrichtung, einen Arbeitgeber oder eine Agentur aus, die Ihre Teilnahme sponsert. 

Gesunde Gewohnheiten für den Kursabschluss

Hier finden Sie eine Liste mit Best Practices, die Ihnen dabei helfen, die Kurse des Programms rechtzeitig abzuschließen: 

  • Planen Sie Ihre Zeit: Wenn Sie regelmäßige Lernzeiten festlegen und diese jede Woche einhalten, können Sie das Lernen zu einem Teil Ihrer Routine machen. Verwenden Sie einen Kalender oder Zeitplan, um einen Zeitplan zu erstellen, und listen Sie auf, was Sie jeden Tag tun möchten, um erreichbare Ziele festzulegen. Suchen Sie sich einen Raum, in dem Sie sich konzentrieren können, wenn Sie sich die Videos ansehen, die Messwerte noch einmal durchgehen und die Aktivitäten abschließen.

  • Arbeiten Sie in Ihrem eigenen Tempo: Jeder lernt anders. Deshalb wurde dieses Programm so konzipiert, dass Sie in Ihrem eigenen Tempo arbeiten können. Obwohl Ihre persönlichen Fristen mit der Einschreibung beginnen, können Sie das Programm gerne in der Geschwindigkeit absolvieren, die für Sie am besten geeignet ist. Für verspätete Zuweisungen gibt es keine Strafe; Um Ihr Zertifikat zu erhalten, müssen Sie lediglich alle Arbeiten abschließen. Sie können Ihre Fristen jederzeit verlängern, indem Sie im Navigationsbereich auf „Übersicht“ gehen und „Sitzungen wechseln“ auswählen . Wenn Sie bereits frühere Fristen verpasst haben, wählen Sie stattdessen „Meine Fristen zurücksetzen“ aus .

  • Seien Sie neugierig: Wenn Sie eine Idee finden, die Sie begeistert, handeln Sie danach! Stellen Sie Fragen, suchen Sie online nach weiteren Details, erkunden Sie die Links, die Sie interessieren, und machen Sie sich Notizen zu Ihren Entdeckungen. Die Schritte, die Sie unternehmen, um Ihr Lernen auf Ihrem Weg zu unterstützen, werden Ihr Wissen erweitern, mehr Möglichkeiten in diesem wachstumsstarken Bereich schaffen und Ihnen helfen, sich für einen Arbeitsplatz zu qualifizieren. 

  • Machen Sie sich Notizen: Notizen helfen Ihnen, sich in Zukunft an wichtige Informationen zu erinnern, insbesondere wenn Sie sich auf den Eintritt in ein neues Berufsfeld vorbereiten. Darüber hinaus ist das Anfertigen von Notizen eine effektive Möglichkeit, Zusammenhänge zwischen Themen herzustellen und ein besseres Verständnis dieser Themen zu erlangen.

  • Prüfexemplare: Exemplare sind abgeschlossene Aufgaben, die die Kriterien einer Aktivität vollständig erfüllen. Für viele Aktivitäten in diesem Programm gibt es Beispiele, mit denen Sie Ihre Arbeit validieren oder auf Fehler prüfen können. Obwohl es oft viele Möglichkeiten gibt, eine Aufgabe zu erledigen, bieten Beispiele Anleitung und Inspiration für die Durchführung der Aktivität. 

  • Bauen Sie Ihre Karriereidentität auf : Ihre Karriereidentität ist der einzigartige Wert, den Sie der Belegschaft bieten.Schau dieses Video anErfahren Sie mehr über die Schlüsselkomponenten der beruflichen Identität und verfassen Sie Ihre eigene Erklärung zur beruflichen Identität. Wenn Sie Ihre eigene Karriereidentität entdecken und definieren, sind Sie besser gerüstet, einen Karriereweg zu wählen, der Ihren Stärken, Werten und Zielen entspricht und in Ihrem gewählten Beruf effektiver ist.

  • Gemeinsam lernen: Bei all den Ablenkungen des Lebens kann es schwierig sein, die Zeit zu finden, ein Google Career Certificate zu absolvieren.Registrieren Sie sich für die Studiengruppe– Live-Lernsitzungen, die von Montag bis Donnerstag stattfinden und Ihnen die Zeit und den Raum bieten, sich gemeinsam mit einer Gemeinschaft Ihrer Kommilitonen auf Ihre Kursarbeit zu konzentrieren.

  • Vernetzen Sie sich mit anderen Lernenden: Wenn Sie eine Frage haben, sind Sie wahrscheinlich nicht allein. Kontaktieren Sie das Diskussionsforum, um andere Lernende in diesem Programm um Hilfe zu bitten. Sie können Coursera auch privat besuchenGoogle Business Intelligence-Communityum Ihr Netzwerk zu erweitern, Karrierewege zu besprechen und Erfahrungen auszutauschen. Besuche dieSchnellstartanleitung.

  • Aktualisieren Sie Ihr Profil: Überlegen SieAktualisierung Ihres Profilsauf Coursera, um Ihr Foto, Ihre Karriereziele und mehr hinzuzufügen. Wenn andere Lernende Sie in den Diskussionsforen finden, können sie auf Ihren Namen klicken, um auf Ihr Profil zuzugreifen und Sie besser kennenzulernen.

Dokumente, Tabellenkalkulationen, Präsentationen und Labore für Kursaktivitäten

Um bestimmte Aktivitäten im Programm abzuschließen, müssen Sie digitale Dokumente, Tabellenkalkulationen, Präsentationen und/oder Labore verwenden. Business-Intelligence-Experten nutzen diese Softwaretools für die Zusammenarbeit innerhalb ihrer Teams und Organisationen. Wenn Sie weitere Informationen zur Verwendung eines bestimmten Tools benötigen, lesen Sie diese Ressourcen:

Modul-, Kurs- und Zertifikatsglossare

Dieses Programm behandelt viele Begriffe und Konzepte, von denen Sie einige möglicherweise bereits kennen und andere möglicherweise nicht kennen. Um Begriffe zu überprüfen und sich auf benotete Tests vorzubereiten, lesen Sie die folgenden Glossare:

  • Modulglossare : Am Ende des Inhalts jedes Moduls können Sie ein Glossar mit Begriffen aus diesem Modul einsehen. Das Glossar jedes Moduls baut auf den Begriffen der vorherigen Module dieses Kurses auf. Die Modulglossare können nicht heruntergeladen werden; Alle Begriffe und Definitionen sind jedoch in den herunterladbaren Kurs- und Zertifikatsglossaren enthalten.

  • Kursglossare : Am Ende jedes Kurses können Sie auf ein Glossar zugreifen und es herunterladen, das alle Begriffe in diesem Kurs abdeckt. 

  • Zertifikatsglossar : Das Zertifikatsglossar enthält alle Begriffe des gesamten Zertifikatsprogramms und ist eine hilfreiche Ressource, auf die Sie während des gesamten Programms oder jederzeit in der Zukunft zurückgreifen können. 

Sie können auf die Zertifikatsglossare zugreifen, diese herunterladen und auf Ihrem Computer speichern. Die Kurs- und Zertifikatsglossare finden Sie auch in den KursenRessourcenTab. Um auf das Glossar des Business Intelligence-Zertifikats zuzugreifen , klicken Sie auf den folgenden Link und wählen Sie Vorlage verwenden aus .

ODER

  • Wenn Sie kein Google-Konto haben, können Sie das Glossar direkt aus dem Anhang unten herunterladen.

 
Glossar zum Business Intelligence-Zertifikat
DOCX-Datei

Glossar zum Data Analytics-Zertifikat

Wenn Sie das abgeschlossen habenGoogle Data Analytics-ZertifikatMöglicherweise erkennen Sie Überschneidungen mit mehreren Glossarbegriffen in diesem Programm. Weitere Informationen finden Sie im Glossar zum Data Analytics-Zertifikat, das im verlinkt istRessourcenKlicken Sie auf die Registerkarte, um diese grundlegenden Begriffe und Konzepte zu überprüfen. Die Definitionen einiger Begriffe in diesem Glossar weichen von den Definitionen derselben Begriffe in diesem Programm ab, da das Business Intelligence-Zertifikat auf den im Data Analytics-Zertifikat vermittelten Konzepten aufbaut.

Kursfeedback

Es ist einfach, Feedback zu Videos, Lesungen und anderen Materialien zu geben. Wenn die Ressource in Ihrem Browser geöffnet ist, finden Sie die Daumen-hoch- und Daumen-runter-Symbole. 

  • Klicken Sie auf „Daumen hoch“ , um Materialien anzuzeigen, die Sie hilfreich finden. 

  • Klicken Sie auf die Daumen-nach-unten-Taste für Materialien, die Sie nicht hilfreich finden.

Wenn Sie ein bestimmtes Problem mit einem Artikel kennzeichnen möchten, klicken Sie auf das Flaggensymbol, wählen Sie eine Kategorie aus und geben Sie eine Erklärung in das Textfeld ein. Dieses Feedback geht an das Kursentwicklungsteam zurück und ist für andere Lernende nicht sichtbar. Das gesamte erhaltene Feedback trägt dazu bei, in Zukunft noch bessere Zertifikatsprogramme zu schaffen. 

Für technische Hilfe besuchen Sie bitte dieHilfezentrum für Lernende.

Sally: Persönliche Karrierereise

Video 03

Hallo, ich bin Sally. Ich bin Business Intelligence-Analyst bei Google. Das bedeutet, dass ich mit Daten arbeite, um das Einstellungserlebnis bei Google zu verbessern. Der Einstieg in die Datenanalyse erfolgte über ein Business-Bootcamp, das ich vor Jahren durchgeführt habe. Ich habe darüber nachgedacht, biomedizinischer Forscher zu werden, und das ist etwas, was ich einfach in meiner Freizeit nutzen wollte. Wir haben etwas über die Datenanalyse im Allgemeinen gelernt und ich habe festgestellt, dass ich ein Händchen dafür habe. Alles ergab einfach einen Sinn. Es war sehr greifbar. Sie können die Ergebnisse sofort sehen und nach Dingen suchen. Ich liebe Rätsel, also versuche ich, mithilfe verschiedener Hinweise herauszufinden, was die Antwort ist. Und es hat mir sehr viel Spaß gemacht und auch die Arbeit mit Teams hat mir Spaß gemacht, was anders ist als zu meiner Zeit in den Naturwissenschaften. Es war sehr unabhängig, ich machte mein eigenes Ding. Aber im Rahmen des Business-Bootcamps arbeitete ich in einer Gruppe von Menschen und das war so sozial und hat so viel Spaß gemacht. Und wir haben uns gegenseitig unterstützt und ich liebe das, diese Teamatmosphäre. Durch das Programm bekam ich meinen ersten Job. Ich habe im Rahmen des Programms jemanden kennengelernt, der ein Jahr vor mir seinen Abschluss machte. Und als es für mich an der Zeit war, mich auf eine Stelle zu bewerben, hatte er eine freie Stelle in seinem Team und kontaktierte mich, um zu sehen, ob ich mich bewerben wollte. So bin ich eigentlich zur Datenanalyse gekommen. Ich habe keine Datenanalyse studiert. Ich musste mir alles selbst beibringen, ich musste mir SQL selbst beibringen. Ich hatte nicht das Gefühl, dass ich wirklich einen Beitrag leistete oder dass ich in diesem Bereich irgendeine Sicherheit hatte. Und so habe ich versucht, mir selbst Python beizubringen, mich mit maschinellem Lernen zu befassen und was nicht. Aber letztendlich habe ich herausgefunden, dass ich das nicht tun muss. Ich muss nur eine Nische finden – in der ich gut bin – und diese ausbauen und darin ein Experte werden. Der Rat, den ich jemandem geben würde, der in den Bereich Business Intelligence einsteigen möchte, ist, den Unterschied zwischen Datenanalyse und Business Intelligence zu berücksichtigen. Ich persönlich habe festgestellt, dass mir SQL wirklich gefällt. Ich liebe SQL auf der technischen Seite. Darüber hinaus wollte ich aufsteigen und in die Business Intelligence einsteigen. Sie können Ihre Karriere im breiteren Bereich der Datenanalyse ganz nach Ihren Wünschen gestalten, je nachdem, was Ihnen Spaß macht.

Entdecken Sie Karrieren im Bereich Business Intelligence

Video 04

Wir hören oft von all den Daten, die jeden Tag erstellt werden. Dabei kann es sich um etwas so Einfaches wie das Aufnehmen eines Fotos mit dem Telefon oder das Bezahlen Ihrer Rechnungen handeln, aber auch um etwas so Komplexes wie die Einführung eines neuen Produkts durch ein globales Unternehmen oder die Durchführung einer Multimedia-Werbekampagne. Es fühlt sich wirklich so an, als ob praktisch alles Daten erzeugt. Daher ist es kein Wunder, dass Unternehmen Experten benötigen, die ihnen helfen, auf die richtigen Daten zuzugreifen, diese zu nutzen, um Wachstums- und Verbesserungsmöglichkeiten zu finden und diese Erkenntnisse in die Tat umzusetzen. Da das Datenvolumen ständig zunimmt, besteht auch ein Bedarf an Fachleuten, die diese Daten zum Leuchten bringen können. In meiner Rolle bin ich beispielsweise stolz darauf, meinen Stakeholdern mithilfe von Daten einen schnellen Überblick über genau das zu geben, was sie wissen müssen, ohne sich in den Details zu verlieren. Die von mir erstellten Tools ermöglichen es ihnen, die Einstellung von Kandidaten und die Mitarbeitererfahrungen innerhalb von Googles People Operations klar zu bewerten. Dies funktioniert unter anderem dadurch, dass ich meinen Stakeholdern zeige, wie lange der Vorstellungsgesprächsprozess dauert, wenn jemand bei Google eingestellt wird. Dies ist wichtig, da es ihnen hilft festzustellen, ob wir mehr Personalvermittler oder Interviewplaner einstellen müssen, um den Prozess für unsere Kandidaten zu verbessern. In diesem Video erfahren Sie mehr darüber, wie wir in der BI unseren Kollegen einen Mehrwert bieten und wie wir die Zukunft unserer Organisationen mitgestalten. Es gibt so viele verschiedene mögliche Rollen zu erkunden. In diesem Programm erfahren Sie beispielsweise viel über BI-Analysten und BI-Ingenieure. BI-Analysten sammeln Anforderungen von Stakeholdern, Partnern und Teammitgliedern. Sie nutzen ihr Verständnis großer Datenmengen, um Daten abzurufen, zu organisieren und zu interpretieren. Anschließend erstellen sie Visualisierungen, Dashboards und Berichte, um sie bei der Präsentation und Kommunikation von Erkenntnissen an andere zu verwenden. Die von ihnen weitergegebenen Informationen könnten zur Entscheidungsfindung, zur Entwicklung eines neuen Prozesses oder zur Erstellung einer Geschäftsstrategie genutzt werden, oder sie könnten für eine noch tiefergehende Analyse eingesetzt werden. BI-Ingenieure sind für das Entwerfen, Konfigurieren, Implementieren und Verbessern von Datentools und -prozessen verantwortlich. Sie bewerten und rationalisieren verschiedene Geräte, Infrastrukturen und Informationskanäle, sogenannte Pipelines. Ingenieure sind hervorragende Problemlöser und helfen bei der Suche nach Lösungen für Sicherheitsprobleme, Anwendungsberechtigungen und -aktualisierungen sowie andere technische Herausforderungen. Mit anderen Worten: Ein BI-Ingenieur verwaltet Tools und Prozesse, was es einem BI-Analysten ermöglicht, diese Tools und Prozesse in die Tat umzusetzen. Es ist jedoch auch wichtig zu beachten, dass einige Unternehmen nicht zwischen diesen beiden BI-Berufen unterscheiden und die Begriffe Analyst und Ingenieur synonym verwenden. Wenn Sie also anfangen, nach Stellenangeboten zu suchen, nehmen Sie sich unbedingt etwas Zeit, um die Stelle und die Organisation zu recherchieren, um vollständig zu verstehen, worum es geht. Ganz gleich, für welchen Weg Sie sich letztendlich entscheiden, eine Karriere in der BI hat das Potenzial, großartig zu sein. Untersuchungen zeigen, dass heute alle Branchen qualifizierte BI-Fachkräfte benötigen. Aber es gibt nicht genügend Leute mit der richtigen Erfahrung und dem richtigen Talent, um diesen Bedarf zu befriedigen. BI-Experten genießen gute Karriereaussichten. Tatsächlich offenbart eine schnelle Suche nach Stellenangeboten in der Branche allein auf LinkedIn Tausende von Möglichkeiten. Aber das Beste ist vielleicht, dass BI-Experten die Arbeit als lohnend und erfüllend empfinden, weil wir wissen, dass das, was wir tun, das Leben anderer verbessert. Im weiteren Verlauf dieses Programms werden Sie einige wirklich inspirierende Beispiele dafür entdecken, wie BI einen so positiven Einfluss hat. Ich kann es kaum erwarten, sie mit Ihnen zu teilen.

Business Intelligence treibt Veränderungen voran

Wie Sie erfahren haben, ist die Fähigkeit eines Unternehmens, Probleme zu erkennen, bevor sie zu Problemen werden, oder Chancen vor der Konkurrenz zu nutzen, der Schlüssel zu intelligenter Entscheidungsfindung. Wir haben heute mehr denn je Zugriff auf Daten über unseren Markt, unsere Organisationen, Kunden, Wettbewerber und Mitarbeiter. Aber um diese Daten schnell in Ergebnisse umzuwandeln, brauchen wir Business Intelligence. Bei Business Intelligence geht es um die Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen. 

In dieser Lektüre werden Sie zwei Beispiele dafür untersuchen, wie BI echten Unternehmen geholfen hat, Erkenntnisse zu gewinnen, auf die richtigen Daten zuzugreifen und Wege zu finden, ihre Prozesse zu erweitern und zu verbessern, um diese Erkenntnisse in die Tat umzusetzen. 

Restaurants reduzieren Abfall 

Zwei Kunden in einem Restaurant bestellen über ein Tablet, während der Mitarbeiter zusieht

Stellen Sie sich ein fiktives Szenario über eine Fast-Food-Restaurantkette vor. Führungskräfte dieses Unternehmens müssen riesige Datenmengen verwalten, wie zum Beispiel:

  • Kundentransaktionen

  • Marketingdaten im Zusammenhang mit Werbeaktionen

  • Kundenzufriedenheit

  • Mitarbeiterinformation

Und so viel mehr! Darüber hinaus muss das Unternehmen aber auch die Logistik für die einzelnen Restaurants berücksichtigen. Hier kommt das Problem ins Spiel.

Das Problem

Die Restaurants benötigen Zutaten zum Kochen und Bedienen der Kunden, aber wenn sie zu viel haben, wird der zusätzliche Vorrat oft verschwendet. Die Unternehmensleitung berät sich mit ihrem BI-Team, um zu überlegen, wie zwei Anliegen angegangen werden können:

  • So stellen Sie sicher, dass die zahlreichen Standorte der Restaurants über genügend Zutaten verfügen, um die Kundennachfrage zu befriedigen

  • So reduzieren Sie Lebensmittelverschwendung

Allerdings verfügen diese Interessengruppen derzeit nicht über Kennzahlen zur spezifischen Messung der Lebensmittelverschwendung oder über Strategien zu deren Reduzierung. Genau hier muss das BI-Team ansetzen.

Die Lösung

Um auf die Bedürfnisse der Stakeholder einzugehen, verbringt das BI-Team Zeit damit, Informationen über aktuelle Metriken und Prozesse zu sammeln. Anhand dieser Informationen ermitteln sie zunächst, über welche Daten sie verfügen und wie diese verwendet werden. Sie entdecken, dass es bereits nützliche Kennzahlen gibt, die von verschiedenen Teams im Unternehmen auf andere Weise angewendet werden, darunter:

  • Wie viele Zutaten werden an jeden Standort geliefert?

  • Wie viel wird täglich von jedem Menüpunkt zubereitet?

  • Wie viel von jedem Menüpunkt tatsächlich pro Tag bestellt wird

Durch den Vergleich dieser vorhandenen Kennzahlen kann das Unternehmen besser verstehen, wie viel Lebensmittel verschwendet werden. Dadurch sind die BI-Analysten in der Lage, die notwendigen Informationen zu eingehenden Lebensmittellieferungen, Kundenbestellungen und Lebensmittelverbrauch in Form eines Dashboards zu sammeln, damit Stakeholder die Lebensmittelverschwendung überwachen können. Die BI-Analysten organisieren diese Daten dann in den Datenbanksystemen und stellen sie in neuen Tabellen bereit, die die Ergebnisse melden, damit die Stakeholder sie bei der Entwicklung einer Strategie zur Reduzierung der Lebensmittelverschwendung berücksichtigen können. 

Die Ergebnisse

Wenn die Beteiligten jetzt wissen, wie viele Lebensmittel tatsächlich verschwendet werden, können sie ihre Ziele besser erreichen. Die Restaurantkette stellt fest, dass die größte Quelle der Lebensmittelverschwendung Pommes Frites sind. An ihren Standorten bleiben am Monatsende 10–20 % der Pommes Frites übrig. Mit diesen Informationen sendet das zentrale Betriebsteam des Unternehmens ein Memo an alle Filialen, in dem es ihnen empfiehlt, ihre eingehenden Pommes-Frites-Lieferungen um 10 % zu reduzieren. Auf diese Weise können die BI-Analysten dem Unternehmen dabei helfen, einen Bereich mit Verbesserungspotenzial zu identifizieren und Verschwendung zu reduzieren. 

Krankenhäuser fördern die Patientenversorgung

Ein Patient schaut mit einem Tablet einen Arzt an

Krankenhäuser müssen außerdem viele verschiedene Arten von Daten verwalten – insbesondere Patienteninformationen. Sie verfügen außerdem über eine Vielzahl von Datenquellen, auf die sie zugreifen und die sie teilen müssen, um sicherzustellen, dass andere verbundene Benutzer – beispielsweise Ärzte, die außerhalb des Krankenhauses arbeiten – ihren Patienten die Behandlung bieten können, die sie benötigen, ohne Zeit oder Ressourcen zu verschwenden. 

Das Problem

Stellen Sie sich für dieses Szenario ein Krankenhaussystem vor, das vor der Herausforderung steht, effektiv mit Ärzten zu kommunizieren, die nicht im selben Krankenhaussystem arbeiten. Administratoren haben festgestellt, dass dies zu verschiedenen Problemen führt:

  • Ärzte außerhalb des Systems haben keinen Zugriff auf Testergebnisse des Krankenhauses

  • Patienten werden mehrfach getestet

Dies ist sowohl für das Krankenhaus als auch für die Patienten teuer und ineffizient. Deshalb entscheiden sich Entscheidungsträger dafür, mit einem Team von BI-Spezialisten zusammenzuarbeiten, um Datenbanksysteme zu erstellen, die Daten in die Hände von Ärzten bringen, die sie benötigen. 

Die Lösung

Grundsätzlich besteht in diesem Krankenhaussystem ein Problem im Zusammenhang mit nicht zugänglichen Patientendaten. Es strömen viele Daten aus mehreren Quellsystemen ein, die an einem Ziel konsolidiert werden müssen, das von Ärzten genutzt werden kann, einschließlich Informationen über:

  • Frühere Besuche

  • Tests

  • Allergien

Und andere relevante medizinische Informationen. Deshalb entwickelt das BI-Team ein Pipeline-System, das Daten aus allen wichtigen Quellen aufnimmt, verarbeitet und transformiert, sodass sie konsistent sind, und sie an ein Datenbanksystem liefert, wo Ärzte auf alle benötigten Informationen zugreifen können.

Die Ergebnisse

Durch die Zusammenführung der vielen Datenquellen des Krankenhauses in einer konsolidierten Datenbank trägt das BI-Team dazu bei, dem Krankenhaus Geld und Ressourcen zu sparen, indem es doppelte Tests eliminiert. Jetzt sind Ärzte besser in der Lage, Patienten zu behandeln, Patienten sparen Geld für überflüssige Tests und Verfahren und das Krankenhaus kann effizienter arbeiten. Dies alles ist den vom BI-Team entwickelten Tools zu verdanken!

Die zentralen Thesen

Unabhängig davon, in welcher Branche Sie tätig sind, kann BI Prozesse und Informationskanäle automatisieren, um den Menschen, die diese Daten benötigen, die Möglichkeit zu geben, Fragen zu beantworten und Entscheidungen zu treffen. Von Restaurants, die Abfall reduzieren, bis hin zu Krankenhäusern, die die Patientenversorgung verbessern – BI-Analysten erstellen Systeme und Tools, um Bedürfnisse zu antizipieren und es Unternehmen zu ermöglichen, ihre Ziele zu erreichen. 

Business-Intelligence-Teams und Partner

Video 05

Was tun Sie, wenn Sie vor einer wirklich herausfordernden Aufgabe oder einem großen Problem stehen? Sie haben recherchiert und mehrere Ansätze ausprobiert, aber nichts scheint zu funktionieren. Es ist ganz natürlich, frustriert zu sein. Das haben wir alle schon durchgemacht. Aber eine viel bessere Strategie besteht darin, einfach um Hilfe zu bitten. Wie das Sprichwort sagt: Zwei Köpfe sind besser als einer. Und in der Geschäftswelt erfordern komplexe Probleme oft fünf, zehn oder sogar Hunderte von Menschen, die mögliche Lösungen finden. Aus diesem Grund arbeiten Business-Intelligence-Experten bei ihrer Arbeit mit vielen verschiedenen Teammitgliedern zusammen. Für den BI-Prozess sind Brainstorming und gemeinsames Aufbauen, das Sammeln von Wissen und die Lösung von Problemen von wesentlicher Bedeutung. BI-Experten sind außerdem darauf angewiesen, dass Teammitglieder wichtige Inputs für ihre Projekte liefern und gemeinsam an Lösungen arbeiten. In diesem Video werden Beispiele der wichtigsten Akteure gezeigt, mit denen Sie zusammenarbeiten könnten. Denken Sie daran, dass jede Organisation Berufsbezeichnungen anders handhabt, sodass es zu Abweichungen oder Überschneidungen kommen kann. Dies ist jedoch ein guter Ausgangspunkt. Zunächst einmal API-Profis. API steht für Application Programming Interface. Hierbei handelt es sich um eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht. Es gibt so viele verschiedene Rollen, die APIs beinhalten. Einschließlich API-Strategen, Entwickler, Ingenieure und Produktbesitzer. Wenn Sie im Bereich Business Intelligence arbeiten, arbeiten Sie möglicherweise mit API-Experten zusammen, um die Schnittstelle zu erstellen, die Sie für ein bestimmtes Projekt benötigen, insbesondere wenn einige Ihrer Daten von einer Drittanbieterplattform stammen. APIs übertragen diese Daten in die interne Unternehmensdatenbank, um Reporting-Tools und Dashboards zu erstellen. API-Experten programmieren in einer Reihe verschiedener Computersprachen, darunter Python, Java und vielen anderen. Es liegt also an den API-Partnern, Code zu schreiben, der für jedes Projekt und jeden Geschäftsbedarf spezifisch ist. Möglicherweise arbeiten Sie mit Data-Warehousing-Spezialisten zusammen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln. Diese Personen tragen auch dazu bei, dass BI-Experten problemlos auf die benötigten Daten zugreifen können. Es gibt auch Data-Governance-Experten. Diese Teammitglieder sind für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich. Dies kann die Verwaltung der Verfügbarkeit, Integrität und Sicherheit von Daten auf der Grundlage interner Standards und Richtlinien umfassen. Dies ist sehr wichtig, um sicherzustellen, dass die Daten vertrauenswürdig sind und nicht missbraucht oder beschädigt werden. Natürlich sind Datenanalysten wichtige Partner beim Sammeln, Umwandeln und Organisieren von Daten. Sie sind Datensatzspezialisten, die die Daten ständig überprüfen und validieren. Außerdem identifizieren und implementieren sie spannende neue Analysemethoden. Ein weiteres wichtiges Team ist die IT. Fachleute für Informationstechnologie testen die Installation, Reparatur, Aktualisierung und Wartung der Hardware- und Softwarelösungen, die Unternehmen täglich nutzen. BI-Experten arbeiten mit der IT-Abteilung zusammen, um alle verfügbaren Daten und Datentools zu maximieren. Darüber hinaus sind Projektmanager wichtige Mitarbeiter, da sie sich um die täglichen Projektschritte, den Umfang, den Zeitplan, das Budget, die Ressourcen und vieles mehr kümmern. Es gibt alle Arten von Mitwirkenden und jede Organisation ist anders. Mit wem Sie zusammenarbeiten, hängt von der Größe des Unternehmens, den verfügbaren Tools und der Art der Arbeit ab. Wenn sich Ihr Projekt beispielsweise mit dem Kundenerlebnis befasst, ist das Kundenerfolgsteam für die Bereitstellung von Inputs von entscheidender Bedeutung. Wenn es bei Ihrem Projekt um Mitarbeiterengagement geht, arbeiten Sie eng mit dem HR-Team zusammen. Und da es sich bei meiner Arbeit um Einstellungsprozesse handelt, profitiere ich wirklich von der Zusammenarbeit mit den Mitgliedern des Rekrutierungsteams hier bei Google. Nun gibt es noch eine weitere wichtige Gruppe von Menschen im Team und das sind Ihre Stakeholder. In einem kommenden Abschnitt dieses Kurses werden wir viel mehr über die verschiedenen Stakeholder-Rollen in Bezug auf BI sprechen. Wir befassen uns auch mit den verschiedenen Zielen der Stakeholder und wie Sie Ihre BI-Fähigkeiten nutzen können, um diese zu erreichen. Bleiben Sie dran.

Zusammenarbeit mit Business-Intelligence-Partnern

Zuvor haben Sie von den vielen verschiedenen Partnern erfahren, mit denen ein Business-Intelligence-Experte zusammenarbeiten kann, um Systeme und Tools für ein Unternehmen zu entwickeln, um Prozesse zu verbessern und Stakeholdern kontinuierliche Erkenntnisse zu liefern. Zu diesen Partnern könnten gehören:

  • API-Profis

  • Data-Warehousing-Spezialisten

  • Daten-Governance-Experten

  • Datenanalysten

  • IT-Experten

  • Projektmanager

  • Und viele mehr!

Komplexe Geschäftsprobleme erfordern Zusammenarbeit und teamübergreifende Zusammenarbeit. Diese Partner bringen einzigartige Kenntnisse, Erfahrungen, Fähigkeiten und Perspektiven ein. Brainstorming und gemeinsamer Aufbau, die Bündelung von Wissen und die Ausarbeitung von Problemen sind für den BI-Prozess von wesentlicher Bedeutung. 

Die Bewältigung komplexer Probleme hängt mit einem Konzept zusammen, mit dem Sie möglicherweise bereits vertraut sind, wenn Sie das Google Data Analytics-Zertifikat abgeschlossen haben: strukturiertes Denken. Beim strukturierten Denken geht es darum, das aktuelle Problem oder die aktuelle Situation zu erkennen, verfügbare Informationen zu ordnen, Lücken und Chancen aufzudecken und Optionen zu identifizieren. Grundsätzlich ermöglicht Ihnen strukturiertes Denken, ein Problem in überschaubare Teile zu zerlegen. 

Das Gleiche gilt für BI. Oftmals haben Sie ein komplexes Problem, bei dem viele Teile berücksichtigt werden müssen. Durch die Verwendung eines strukturierten Ansatzes und die Zerlegung des Problems in überschaubare Teile ist der Prozess zur Lösung des Problems und zur Erzielung von Ergebnissen viel einfacher. Und Ihre Partner in der Organisation sind dabei eine großartige Ressource. 

Sehen wir uns nun einige Beispiele von BI-Experten an, die mit ihren Partnern zusammenarbeiten, um Probleme zu lösen und Stakeholdern Erkenntnisse zu liefern, die sie bei der Entscheidungsfindung unterstützen. 

Mitgliederdaten verwalten

Das Marketingteam eines Einzelhandelsgeschäfts suchte nach Möglichkeiten, die Mitgliederzahl für sein Treueprogramm zu erhöhen. Führungskräfte wollten Stammkunden dazu ermutigen, sich anzumelden. Sie verfügten jedoch nicht über ein System, das es Analysten ermöglichte, sowohl die Verkaufsdaten von Mitgliedern als auch von Nichtmitgliedern zu untersuchen. Dies erfordert die Aufnahme von Daten aus verschiedenen Systemen, einschließlich des Online-Mitgliedschaftsformulars des Geschäfts und Verkaufsdaten. Das BI-Team musste also nicht nur ein Tool entwickeln, das Schlüsseldaten verschiebt und transformiert, sondern auch dafür sorgen, dass die Daten aus verschiedenen Systemen mit dem Zielsystem in Einklang gebracht werden. 

In diesem Fall arbeiteten sie mit mehreren Teams zusammen:

  • Das Marketingteam : Das Marketingteam war der Hauptakteur dieser Initiative. Sie arbeiteten mit dem BI-Team zusammen, um Projektanforderungen, Zeitpläne und Ergebnisse zu ermitteln.

  • Das API-Team : Als nächstes arbeitete das BI-Team mit den API-Experten zusammen, um die Daten in die interne Unternehmensdatenbank zu integrieren. Das API-Team half auch beim Aufbau der Berichtstools und Dashboards. 

  • Data-Warehousing-Spezialisten : Anschließend haben sie sich mit Data-Warehousing-Spezialisten zusammengetan, um ein Speicher- und Organisationssystem für die neu erfassten Daten zu erstellen. 

Am Ende wurde das Marketingteam mit einem System ausgestattet, das es ihm ermöglichte, auf die Daten zuzugreifen, die es benötigte, um Kundentrends zu erkunden und Strategien zur Erhöhung der Mitgliederzahl für sein Treueprogramm zu entwickeln. 

Sensible Daten sichern

Ein anderer BI-Experte arbeitete bei einem Technologieunternehmen, das Tools zur Gesundheitsüberwachung wie Smartwatches herstellt. Die Datenanalysten ihres Teams waren daran interessiert, Benutzerdaten zu untersuchen, um herauszufinden, wie Kunden ihre Produkte nutzen. Da einige persönlich identifizierbare Informationen enthalten waren, war es wichtig, dass alle Daten anonymisiert und gesichert wurden. 

Das BI-Team arbeitete mit den Data-Warehousing-Spezialisten und dem Data-Governance-Team zusammen, um sicherzustellen, dass die Speichersysteme die Benutzer schützen und gleichzeitig Datenanalysten Einblicke ermöglichen. Am Ende konnten die Datenanalysten die Smartwatch-Daten nutzen, um Trends zu erkunden und Erkenntnisse zu liefern und gleichzeitig die Privatsphäre der Benutzer zu wahren.  

Die zentralen Thesen

Die Zusammenarbeit mit den Menschen in Ihrem Team, die über unterschiedliche Fähigkeiten und Perspektiven verfügen, ist ein wichtiger Bestandteil eines strukturierten BI-Ansatzes. Als BI-Experte arbeiten Sie mit einer Vielzahl von Partnern zusammen, um Systeme zu erstellen, die Stakeholder mit Daten versorgen, um voranzukommen und erfolgreich zu sein. 

Business Intelligence maximiert den Wert der Datenanalyse

Video 06

Da Business Intelligence und Datenanalyse heutzutage immer beliebter werden, werden die Begriffe Business Intelligence und Datenanalyse oft falsch definiert, zu stark vereinfacht oder synonym für schnelle Kommunikation verwendet. Das kann zu Verwirrung führen, da BI und DA sehr unterschiedlich sind. In diesem Video klären wir das. Stellen wir zunächst fest, dass sowohl BI- als auch DA-Experten in ihren Organisationen eine datengesteuerte Entscheidungsfindung ermöglichen. Sie sind beide auch ein wichtiger Teil der Datenreife ihres Unternehmens. Unter Datenreife versteht man das Ausmaß, in dem ein Unternehmen in der Lage ist, seine Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen. Unabhängig davon, ob es sich bei diesen Daten um Informationen über Ihre Kunden, Mitarbeiter, Produkte, Lieferanten, Finanzen oder etwas anderes handelt, sind sie wertlos, wenn sie nicht genutzt werden können. Für die Umsetzung von Daten sind qualifizierte Fachkräfte erforderlich, die Techniken und Technologien anwenden können, um einen hohen Reifegrad zu erreichen. Dabei geht es den Datenanalysten in erster Linie darum, mithilfe von Daten Fragen zu den Ereignissen zu beantworten. Andererseits streben BI-Experten danach, einen höheren Reifegrad der Daten zu erreichen, indem sie Datenberichtstools wie Dashboards entwickeln. Dashboards analysieren und überwachen kontinuierlich Daten. Die Arbeit ist nicht abgeschlossen, nur weil das Werkzeug erstellt wurde. Die Analyse und Überwachung ist im Gange. Dies liegt daran, dass es bei BI darum geht, wiederholbare Methoden zu etablieren, um zu verstehen, wie die Dinge funktionieren. Durch die Kenntnis des aktuellen Zustands können Unternehmensleiter Maßnahmen ergreifen, um den zukünftigen Zustand zu verbessern. Beispielsweise könnte ein BI-Experte untersuchen, welche neuen Vertriebsinteressenten heute angesprochen werden. Wie viele Kunden haben wir diesen Monat gewonnen? Oder hat unsere wöchentliche E-Mail bei neuen Abonnenten gut funktioniert? Da es bei BI um eine schnelle Überwachung nahezu in Echtzeit geht, sind BI-Erkenntnisse dann am effektivsten, wenn sie sofort Wirkung zeigen. Daher möchten die Personen, die die Berichtstools verwenden, sicherstellen, dass sie praktisch und effizient sind. BI-Experten sind erfahrene Tool-Entwickler. Dann sind es typischerweise die Datenanalysten, die diese Tools anwenden, um eine Frage zu beantworten oder ein Problem zu lösen, indem sie die Daten unter einem bestimmten Thema oder aus einer bestimmten Perspektive untersuchen. Auch hier besteht ein großer Teil von BI in der Erstellung von Dashboards, die Benutzern klare Momentaufnahmen des aktuellen Status liefern. Diese Tools müssen wirkungsvoll und leicht zu interpretieren sein. Auch für technisch nicht versierte Leute. Wenn Sie gerne darüber nachdenken, was Sie erstellen können, um die Anforderungen vieler verschiedener Benutzer zu erfüllen, können Sie mit BI genau das tun. BI-Experten arbeiten im Allgemeinen an Großprojekten, die für mehrere Beteiligten hilfreich sind. Bedenken Sie bei der Überlegung, wie Sie in die BI-Welt passen, auch, dass BI-Experten Experten für Dateninfrastruktur sind und Spaß an der technischen Seite der Datenanalyse haben. Wenn Sie beispielsweise gerne mit Datenbanken, Big Data und der Computerprogrammiersprache SQL arbeiten, bietet Ihnen BI die Möglichkeit, Ihre Abfragen auf die nächste Stufe zu heben. Wenn Sie das Google Data Analytics-Zertifikat erworben haben, bildeten die darin enthaltenen Inhalte Ihr grundlegendes Wissen und Ihre Erfahrung. Dieses BI-Programm bietet nun ergänzende Fähigkeiten, die auf diesen Grundlagen aufbauen. Dadurch werden Ihrem Lebenslauf auch viele sehr marktfähige Talente hinzugefügt, die eine überzeugende Kombination von Fähigkeiten schaffen, die Arbeitgeber berücksichtigen sollten, und die Türen für mehr Beschäftigungsmöglichkeiten öffnen. Zusätzlich zu den technischen Dingen wie der Verwaltung großer Datenmengen, dem Schreiben von Abfragen in SQL und der Erstellung von Dashboards. Sie werden einige wirklich wertvolle berufliche Fähigkeiten erlernen. Dazu gehören: die Fähigkeit, viele verschiedene Prioritäten unter einen Hut zu bringen, Liebe zum Detail, die Verantwortung für einen Prozess, die Kommunikation mit anderen und das Lernen, über oberflächliche Anforderungen hinauszugehen. Am wichtigsten ist vielleicht, dass Sie entdecken, wie wichtig es ist, mit anderen in Kontakt zu treten, um wirklich Ergebnisse zu erzielen, und dass Sie so eine Karriere aufbauen können, anstatt nur einen Job zu haben. In zukünftigen Lektionen werden Sie weiterhin die Gemeinsamkeiten und Unterschiede zwischen BI und DA untersuchen. Die beiden Disziplinen ergänzen und stützen sich aufeinander. Genau wie die talentierten Menschen, die in diesen Rollen arbeiten. Gemeinsam helfen sie ihren Unternehmen jeden Tag dabei, die Datenreife zu verbessern.

Business Intelligence

Wenn Sie das Google Data Analytics-Zertifikat erworben haben oder Erfahrung im Umgang mit Daten haben, wissen Sie wahrscheinlich, dass Datenanalyse und Business Intelligence sowohl Ähnlichkeiten als auch Unterschiede aufweisen. BI baut in vielerlei Hinsicht auf Aufgaben auf, die Datenanalysten ausführen. Datenanalysten sind oft die Stakeholder, für die BI-Experten Systeme entwickeln. In dieser Lektüre werden Sie DA und BI vergleichen und gegenüberstellen, um mehr über diese Ähnlichkeiten und Unterschiede zu erfahren.

Datenaufgaben

UND

MIT EINEM

Beteiligung

Der erste Schritt des Datenanalysezyklus besteht darin, das Geschäftsproblem zu definieren und die Erwartungen der Stakeholder festzulegen.

BI-Experten definieren nicht nur Geschäftsprobleme und stellen Fragen, um Erwartungen festzulegen, sondern beobachten auch aktuelle Prozesse, um festzustellen, wie diese verbessert werden können, um besser auf die Bedürfnisse der Stakeholder einzugehen.

Fragen beantworten

Datenanalysten stehen häufig vor der Aufgabe, zu entscheiden, welche Daten sie zur Beantwortung der Fragen ihrer Stakeholder benötigen, und diese Daten zur Verwendung zu sammeln.

BI-Experten bewerten den Datenbedarf ihrer Stakeholder, identifizieren notwendige Quellen und entwerfen Pipeline-Systeme, die diese Daten automatisch und kontinuierlich sammeln, damit Stakeholder darauf zugreifen können.

Daten sammeln

Sobald die Daten erfasst wurden, müssen Datenanalysten sicherstellen, dass sie sauber und einsatzbereit sind. Sie führen auch Transformationen an den Daten durch, um sie für die Analyse vorzubereiten.

BI-Experten entwickeln Tools, die Daten innerhalb einer Pipeline automatisch bereinigen und transformieren, sodass diese Prozesse für alle Daten gelten, die vom Pipeline-Prozess aufgenommen werden.

Speichersysteme

Datenanalysten müssen sich an Organisationskonventionen halten und historische Daten zur Analyse speichern.

BI-Experten entwickeln Speichersysteme, die die Aufnahme aus mehreren Quellsystemen in eine Zieldatenbank ermöglichen und gleichzeitig das Datenbankschema steuern und das System optimieren.

Beschreibende und prädiktive Analysen

Der Schwerpunkt der Datenanalyse liegt auf der deskriptiven Analyse, die historische Trends beschreibt.

BI nutzt die Analyse historischer Trends, um prädiktive Analysen durchzuführen, die es Unternehmen ermöglichen, wahrscheinliche zukünftige Trends zu ermitteln und entsprechend zu handeln.

Erkenntnisse präsentieren

Nach der Analyse präsentieren Datenanalysten ihre Ergebnisse, um die endgültige Entscheidung der Stakeholder zu treffen.

BI-Analysten erstellen Tabellen, Berichte und Dashboards, die Stakeholdern Zugriff auf die Daten ermöglichen, die sie für ihren gesamten Entscheidungsprozess benötigen.

Wiederholung

Nach der ersten Analyse können Datenanalysten ihre Analyse basierend auf ihren Erkenntnissen oder neuen Informationen wiederholen.

BI-Analysten arbeiten kontinuierlich an Prozessen zur Verbesserung und Optimierung der von ihnen entwickelten Systeme und Tools, um sicherzustellen, dass sie für die Beteiligten weiterhin nützlich sind.

DA und BI haben viele Gemeinsamkeiten: In beiden Bereichen nutzen Fachleute Daten, um Erkenntnisse zu gewinnen, die als Grundlage für die Entscheidungsfindung dienen. BI konzentriert sich jedoch mehr auf die Schaffung von Prozessen und Informationskanälen, die relevante Daten in umsetzbare Erkenntnisse umwandeln, die Entscheidungsträgern kontinuierlich und einfach zur Verfügung stehen.

Die Phasen der Business Intelligence

Video 07

Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, sind Sie mit dem Datenlebenszyklus und dem Datenanalyseprozess bestens vertraut. Datenanalysten nutzen diese Phasen täglich in ihrer Arbeit, um Erkenntnisse zu gewinnen, die zu fundierten Entscheidungen führen. Zur Erinnerung: Der Datenlebenszyklus besteht aus einer Abfolge von Phasen, die Daten durchlaufen, darunter Planen, Erfassen, Verwalten, Analysieren, Archivieren und Vernichten. Der Datenanalyseprozess erfolgt in sechs Phasen. Fragen Sie, bereiten Sie vor, verarbeiten Sie, analysieren Sie, teilen Sie und handeln Sie. Business Intelligence hat auch Phasen, eine Abfolge von drei Phasen, die den Wert von BI sowie den Reifegrad der Unternehmensdaten bestimmen. Wie Sie erfahren haben, ist der Reifegrad der Daten ein wichtiges Ziel für jedes BI-Team, denn ein hoher Reifegrad bedeutet, dass das Unternehmen seine Daten effektiv nutzt, um umsetzbare Erkenntnisse zu gewinnen. In BI sind die drei Phasen Erfassen, Analysieren und Überwachen. Mit jedem Schritt erfordert der Prozess eine tiefere Ebene der Erkundung und Untersuchung, sodass jeder Prozess komplexer wird. Diese Phasen können automatisiert oder manuell durchgeführt werden, aber jede einzelne bringt erhebliche geschäftliche Auswirkungen mit sich, die sich durchaus lohnen. Es ist wichtig, diese Phasen zu verstehen und zu verstehen, wie Sie als BI-Experte davon profitieren können. Wir werden jeden einzelnen von ihnen in diesem Video erkunden. Beginnen wir mit der Erfassung, dem Punkt „was passiert ist“ im BI-Prozess. Diese Phase bezieht sich auf statische, rückwärtsgerichtete Daten. Wenn Sie beispielsweise eine Datenbank abfragen, um einen Datensatz darüber zurückzugeben, was Ihre Kunden im letzten Monat gekauft haben, ist das ein Beispiel für die Erfassung von Informationen. Oder Sie greifen auf eine Tabelle zu, in der die Gewinne und Verluste des Vorquartals aufgeführt sind. Dies ist auch ein Beispiel für die Erfassung oder Aufzeichnung bestimmter Informationen. Datensätze sind für BI unerlässlich, aber sie ermöglichen es den Benutzern nicht, einfach in die Tiefe zu gehen und sich wirklich mit den Daten auseinanderzusetzen, und das behindert die Erkenntnisse, die sie liefern können. Da die Daten in dieser Phase außerdem starr und rückwärtsgerichtet sind, sind sie für proaktive zukunftsorientierte Entscheidungen nicht immer sehr nützlich. Die Erfassung von Informationen ist ein notwendiges Element von BI, aber Informationen allein sagen uns nicht, was gut funktioniert, wie wir uns verbessern können oder was als nächstes zu tun ist. Im nächsten Schritt wird es jedoch besser. Das bringt mich zu Stufe 2: Analysieren. Der „Warum ist es passiert“-Teil von BI. Sie wissen bereits viel über diese Phase, aber zur Erinnerung: Bei der Datenanalyse ziehen wir Schlussfolgerungen, treffen Vorhersagen und treiben fundierte Entscheidungen voran. Da in der Analysephase untersucht wird, warum Dinge passieren, ist es viel wahrscheinlicher, dass daraus wirksame Pläne und Strategien entstehen. Auf diese Weise können BI-Experten wichtige Beziehungen zwischen Datenpunkten besser verstehen. Sie tun dies, indem sie Daten tiefer, umfassender oder sogar nebeneinander untersuchen, um Zusammenhänge zu identifizieren, die zunächst möglicherweise nicht offensichtlich waren. Jetzt sind wir beim letzten Teil des Prozesses angelangt: dem Überwachen. Monitor ist die Phase „Was gerade passiert“, und hier können BI-Experten ihre einzigartigen Fähigkeiten und ihr Fachwissen wirklich unter Beweis stellen. In dieser Phase nutzen Sie automatisierte Prozesse und Informationskanäle wie Datenmodelle, ETL-Pipelines, Dashboards und mehr. Diese spannenden Tools nutzen die Daten, die Unternehmen jeden Tag erstellen, und wandeln sie in echte Informationen um, die den Stakeholdern leicht zugänglich sind. Diese BI-Tools zeigen Aufschwünge, Abschwünge, Veränderungen, Herausforderungen, Chancen und vieles mehr auf. Entscheidungsträger nutzen dann die Erkenntnisse, die diese Tools liefern, um proaktiv auf Geschäftsziele hinzuarbeiten. In den kommenden Kursen erfahren Sie alles über diese BI-Tools, und bald werde ich in diesem Kurs einige grundlegende Informationen über die Toolbox des BI-Experten bereitstellen. Sie können damit beginnen, sich mit dem Geschehen während der Überwachungsphase vertraut zu machen. Vorerst: Großartige Arbeit für all die Fortschritte, die Sie bisher gemacht haben. Ich freue mich sehr, die Welt der BI mit Ihnen zu teilen. Machen wir weiter so und gehen wir zur nächsten Lektion über.

Tragen Sie zu einer erfolgreichen Business-Intelligence-Strategie bei

Video 08

Strategie ist in vielerlei Hinsicht ein wichtiger Teil des Lebens. Nehmen Sie die beliebteste Sportart des Planeten, Fußball oder Fußball. Die Regeln und das Gameplay sind relativ einfach, die Strategie jedoch äußerst komplex. Je nachdem, wer auf dem Spielfeld steht und welche Fähigkeiten er besitzt, müssen die Trainer zwischen vielen verschiedenen Aufstellungen und Taktiken wählen. Und ganz gleich, wie talentiert ein Spieler auch sein mag, er kann nur dann sein Bestes geben, wenn er über ein solides Verständnis der Fußballstrategie verfügt, beispielsweise wenn er in der Lage ist, den richtigen Moment zum Schießen oder Passen genau zu erkennen. Beim Schachspiel geht es auch um Strategie. Jede Figur hat eine eigene Art, sich zu bewegen, wie z. B. ein Turm, der sich horizontal oder vertikal über das Spielfeld bewegt, ein Springer, der über andere Figuren springt, oder die mächtige Dame, die praktisch überall hingeht, wo sie will. Mathematiker haben tatsächlich bewiesen, dass es mehr mögliche Schachspielvarianten als Atome im Universum gibt. Und bei so vielen möglichen Ergebnissen ist eine klare Strategie für die Erstellung eines erfolgreichen Spielplans absolut unerlässlich. Nun, die Entwicklung einer erfolgreichen Strategie ist auch ein wichtiger Teil von BI. Sie erinnern sich vielleicht daran, etwas über Datenstrategie gelernt zu haben, bei der es sich um die Verwaltung von Personen, Prozessen und Tools mithilfe von Datenanalysen handelt. Ebenso ist die Business-Intelligence-Strategie die Verwaltung der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools. Wie Sie feststellen werden, ist BI komplex und erfordert eine 360-Grad-Sicht auf das Unternehmen. Eine durchdachte Vorbereitung für eine effektive Strategie ist ein Muss. In diesem Video erfahren Sie, wie das funktioniert. Beginnen wir mit den Menschen. Das Wichtigste dabei ist, sicherzustellen, dass die Menschen positiv zusammenarbeiten. Manchmal nutzen mehrere Abteilungen im Unternehmen BI, aber die Prozesse sind isoliert, was bedeutet, dass es an Kommunikation und Zusammenarbeit mangelt. Möglicherweise hat das Vertriebsteam keinen Zugriff auf wichtige Marketingdaten oder die Personalabteilung verfolgt wertvolle Mitarbeiterdaten, jedoch nur für ihre eigenen internen Zwecke. Als Erstes müssen Sie also einfach mit allen beteiligten Teammitgliedern und Stakeholdern kommunizieren. Beziehen Sie Menschen aus allen Ebenen der Organisation ein, damit Sie viele unterschiedliche Perspektiven erhalten. Stellen Sie ihnen zunächst einige wichtige Fragen, z. B.: Sind unsere BI-Teams und -Experten koordiniert? Gibt es Überschneidungen zwischen ihren Funktionen? Wer sollte für die Festlegung der Regeln und Richtlinien verantwortlich sein, die BI-Prozesse regeln? Beachten Sie, dass BI-Governance die Definition und Implementierung von BI-Systemen und -Frameworks innerhalb einer Organisation umfasst. Dies unterscheidet sich vom Konzept der Data Governance, bei dem es sich, wie Sie vielleicht wissen, um einen Prozess zur Sicherstellung der formellen Verwaltung der Datenbestände eines Unternehmens handelt. Stellen Sie nun vor allem im Personenschritt sicher, dass Sie nach der Vision für den BI-Prozess fragen. Und wie passt diese Vision zur aktuellen Geschäftsstrategie? Eine Vision spezifiziert Ihre gewünschten Ergebnisse, wie z. B. den Gewinn des Fußballspiels oder des Schachspiels. Das zweite Element der BI-Strategie ist der Prozess. Sie haben nun festgelegt, wer für die Regeln und Richtlinien verantwortlich ist, die BI-Prozesse regeln. Zu den Fragen, die man diesen Leuten stellen sollte, gehören: Welche Lösungen verwenden wir und wie? Welche davon sind wertvoll? Welche Arten von Lösungen planen wir umzusetzen? Wie werden wir sie liefern? Wie werden wir sie unterstützen? Darüber hinaus ist ein Rahmenwerk zur Benutzerunterstützung ein entscheidender Teil des Prozesses. Stellen Sie daher sicher, dass Sie ausreichend Zeit in Schulungen und Schulungen investieren, ein Feedback-System einrichten und sicherstellen, dass die Benutzer einen Nutzen aus den Tools ziehen. Das bringt uns zum Tools-Teil der BI-Strategie. Eines der wichtigsten hier zu beachtenden Konzepte besteht darin, jedes Werkzeug unter Berücksichtigung des Benutzers auszuwählen. Überlegen Sie, welche Dashboards, Berichte und andere Lösungen am effektivsten sind. Fragen Sie: Benötigen unterschiedliche Benutzer, Teams und Abteilungen unterschiedliche Technologien? Auf welche Technologien haben wir Zugriff? Können wir bei Bedarf Zugang zu anderen erhalten? Wie messen wir den Erfolg? Hier möchten Sie wichtige Leistungsindikatoren oder KPIs für jede einzelne Geschäftsanforderung festlegen. Bald erfahren Sie viel mehr über KPIs und erfahren, wie Unternehmen sie nutzen, um täglich ihre Ziele zu erreichen. Aber verstehen Sie zunächst einmal, dass ein KPI ein quantifizierbarer Wert ist, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen. Mit anderen Worten: KPIs leiten Sie an, die gewünschten Ergebnisse zu erzielen. Damit KPIs jedoch ihre Aufgabe erfüllen können, ist es wichtig, dass die von Ihnen ausgewählten Tools mit den für jedes einzelne Projekt festgelegten KPIs übereinstimmen. Der letzte Schritt in diesem Prozess besteht darin, alles zu dokumentieren, was Sie gelernt haben. Viele BI-Experten verwenden spezifische BI-Dokumente, um die Anforderungen der Stakeholder, Projektanforderungen und Strategien zu notieren. Dies sind wichtige Tools, die Ihnen wirklich dabei helfen können, den Überblick zu behalten, organisiert zu bleiben und in Ihrem Unternehmen etwas zu bewirken. Wie Sie diese Dokumente genau erstellen, erfahren Sie in einer kommenden Lektüre. Bedenken Sie abschließend, dass Ihr konkreter Grad der Beteiligung an der BI-Strategie je nach Größe und Struktur unterschiedlich sein kann

Zuvor haben Sie etwas über die Business-Intelligence-Strategie gelernt, bei der es sich um die Verwaltung der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools handelt. BI-Projekte sind kompliziert und der Schlüssel zum Erfolg liegt darin, Wege zu finden, vom Anfang bis zum Ende eines Projekts organisiert zu bleiben. Eine Möglichkeit, sicherzustellen, dass Sie die Projektanforderungen im Großen und Ganzen erfassen, organisiert bleiben und in Ihrem Unternehmen Wirkung erzielen, ist die Erstellung umfassender BI-Dokumente. In dieser Lektüre lernen Sie drei Arten von Dokumenten kennen: das Stakeholder-Anforderungsdokument, das Projektanforderungsdokument und das Strategiedokument.

Jedes dieser Dokumente baut auf dem vorherigen auf. Betrachten Sie diese nicht als drei separate Dokumente, sondern als drei Phasen Ihres Projektplanungsprozesses. Später haben Sie die Möglichkeit, Ihre eigenen BI-Dokumente zu erstellen, die als Leitfaden für Ihr Projekt am Ende des Kurses dienen. Dies ist also eine großartige Ressource für den Einstieg!

Dokument mit den Anforderungen der Stakeholder

Mit dem Stakeholder-Anforderungsdokument können Sie Anfragen und Anforderungen von Stakeholdern erfassen, damit Sie deren Bedürfnisse verstehen, bevor Sie die restlichen Projektdetails oder die Strategie planen. Es sollte folgende Fragen beantworten:

  • Geschäftsproblem: Was ist die primär zu beantwortende Frage bzw. das zu lösende Problem?

  • Stakeholder: Wer sind die wichtigsten Stakeholder dieses Projekts und wie lauten ihre Berufsbezeichnungen?

  • Details zur Nutzung durch Stakeholder: Wie werden die Stakeholder das BI-Tool nutzen?

  • Primäre Anforderungen: Welche Anforderungen muss dieses BI-Tool erfüllen, damit dieses Projekt erfolgreich ist?

Hier sind einige Fragen, die BI-Experten stellen, um dieses Dokument erfolgreich abzuschließen:

  • Welche Fragen müssen vor Beginn dieses Projekts beantwortet werden?

  • Was muss das BI-Team wissen, bevor es mit diesem Projekt beginnt?

  • Welche Fragen müssen durch dieses Projekt beantwortet/Probleme gelöst werden?

  • Welche Datensätze werden für dieses Projekt als wichtig erachtet?

  • Wer soll Zugriff auf das Dashboard haben? Wird das gesamte Dashboard für alle Beteiligten sichtbar sein?

Typischerweise handelt es sich bei dem Stakeholder-Anforderungsdokument um einen One-Pager mit Notizen, bei komplexen Projekten kann es jedoch auch länger und detaillierter sein.

Klicken Sie auf den Link, um auf die Vorlage für das Stakeholder-Anforderungsdokument zuzugreifen, oder laden Sie die Datei direkt aus dem Anhang unten herunter.Vorlage für ein Stakeholder-Anforderungsdokument

Projektanforderungsdokument

Sobald Sie die Stakeholder-Anforderungen festgelegt haben, können Sie damit beginnen, über die Projektanforderungen nachzudenken, die erfüllt werden müssen, um die Stakeholder-Anforderungen zu erfüllen. Das Projektanforderungsdokument enthält die folgenden Details:

  • Zweck: Beschreiben Sie kurz, warum dieses Projekt durchgeführt wird, und erklären Sie, warum das Unternehmen seine Ressourcen darin investieren sollte.

  • Wichtige Abhängigkeiten: Beschreiben Sie die Hauptelemente dieses Projekts. Geben Sie das Team, die Hauptkontakte und die erwarteten Ergebnisse an. Sind teamübergreifende Leistungen erforderlich?

  • Stakeholder-Anforderungen: Listen Sie die festgelegten Stakeholder-Anforderungen auf, basierend auf dem Stakeholder-Anforderungsdokument. Priorisieren Sie die Anforderungen als: R – erforderlich, D – gewünscht oder N – schön zu haben.

  • Erfolgskriterien: Klären Sie, wie Erfolg für dieses Projekt aussieht. Machen Sie explizite Angaben zur Erfolgsmessung. Verwenden Sie SMART-Kriterien.

  • Benutzerreisen: Dokumentieren Sie die aktuelle Benutzererfahrung und die ideale zukünftige Erfahrung.

  • Annahmen: Geben Sie alle Annahmen, die Sie treffen, explizit und klar an.

  • Compliance und Datenschutz: Berücksichtigen Sie Compliance-, Datenschutz- oder rechtliche Aspekte.

  • Barrierefreiheit: Listen Sie wichtige Überlegungen zum Erstellen barrierefreier Berichte für alle Benutzer auf. Wer muss auf diese Funktion zugreifen? Wie sehen sie es und wie interagieren sie damit?

  • Rollout-Plan: Beschreiben Sie kurz den erwarteten Umfang, die Prioritäten und den Zeitplan. Überlegen Sie, an welchen Punkten während des Rollouts Messungen durchgeführt werden, um festzustellen, ob die Funktion wie erwartet funktioniert? Gibt es einen Rollback-Plan und einen Zeitplan für den Fall, dass diese Funktion ihre beabsichtigten Ziele nicht erreicht?

Darüber hinaus werden Sie von einigen Unternehmen gebeten, eine Referenzliste beizufügen. Wenn ja, empfiehlt es sich, beim Zitieren von Referenzen großzügig zu sein. man kann nie zu viele haben. Zu den Referenzen könnten gehören:

  • Dokumente oder Websites, die Sie während der Arbeit an diesem Projekt gelesen und recherchiert haben

  • Gesetze und Richtlinien: Alle Vorschriften, die die Projektanforderungen bestimmen

  • Projektverfolgung: Ein Link zur Verfolgungstabelle, Fehler-Hotlist usw.

  • Ähnliche Projekte: Eine Beschreibung von ähnlichen Projekten, die in der Vergangenheit unternommen wurden, oder paralleler Bemühungen.

Ähnlich wie das Stakeholder-Anforderungsdokument variiert das Projektanforderungsdokument je nach Komplexität des Projekts. Dabei kann es sich lediglich um eine E-Mail handeln, die an Stakeholder gesendet wird, um sie über Erwartungen und Check-in-Punkte auf dem Laufenden zu halten, oder um ein mehrseitiges Dokument mit einer Tabelle, in der der Projektplan und die wichtigsten Aufgaben aufgeführt sind.

Klicken Sie auf den Link, um auf die Projektanforderungsdokumentvorlage zuzugreifen, oder laden Sie die Datei direkt aus dem Anhang unten herunter.Dokumentvorlage für Projektanforderungen

Strategiedokument

Abschließend erstellen Sie ein Strategiedokument für Ihr Projekt. Dies ist die letzte Phase des Planungsprozesses. Das Strategiedokument ist ein Ort für die Zusammenarbeit mit Stakeholdern über Projektergebnisse. Sie arbeiten gemeinsam daran, Informationen über die Dashboard-Funktionalität und zugehörige Metriken und Diagramme zu ermitteln.

Jetzt ist es an der Zeit, zu konkretisieren, welche Metriken erforderlich sind, wie Metriken berechnet werden und welche Einschränkungen oder Annahmen bezüglich der Daten bestehen. Stakeholder durchdenken diese Details und helfen dem BI-Experten, endgültige Projektentscheidungen zu treffen. Anschließend stellt der BI-Experte den Stakeholdern ein Dashboard-Mockup zur Verfügung, um wertvolles Feedback zu erhalten.

Im Allgemeinen erstellt der BI-Experte das Dokument und fordert die Überprüfung und Freigabe durch wichtige Stakeholder an. Anschließend können sie mit allen benötigten Details mit der Arbeit am Projekt beginnen.

Klicken Sie auf den Link, um auf die Strategiedokumentvorlage zuzugreifen, oder laden Sie die Datei direkt aus dem Anhang unten herunter.Vorlage für ein Strategiedokument

Die Organisation und Abstimmung mit den Stakeholdern ist ein wichtiger Teil des BI-Prozesses. Das Erstellen von Dokumenten zu Beginn eines Projekts, um Stakeholder- und Projektanforderungen sowie Projektstrategien zu skizzieren, kann für einen BI-Experten ein wichtiges Instrument sein, um sich mit Stakeholdern abzustimmen und vorauszuplanen. Bald haben Sie die Möglichkeit, Ihre eigenen Dokumente zu erstellen, um sie mit den Interessengruppen abzustimmen und Ihr Abschlussprojekt zu planen!

Bewertung von Exemplar

In dieser Aktivität haben Sie das Ausfüllen wichtiger BI-Planungsdokumente anhand eines realistischen Szenarios geübt. In dem Szenario fehlten absichtlich wichtige Informationen. Daher bestand ein Teil Ihrer Aufgabe darin, herauszufinden, was Ihnen fehlte, und Folgefragen zu entwickeln, die Sie den Stakeholdern stellen konnten. Diese Aktivität bereitet Sie darauf vor, diese Formulare in zukünftigen Projekten im Laufe Ihrer Karriere auszufüllen.

Projektplanungsdokumente helfen Ihnen, die Bedürfnisse und Erwartungen Ihrer Stakeholder zu verstehen. Dadurch können Sie effektiv mit ihnen kommunizieren und besser verstehen, wie das Projekt abgeschlossen werden kann. Sie können ermitteln, welche Informationen Ihnen bei der Erfüllung der Projektanforderungen am meisten helfen.

Ihre Dokumente müssen nicht perfekt mit diesen Vorlagen übereinstimmen. Ziel ist es, die Informationen richtig in den richtigen Feldern zu organisieren und zu verstehen, wie Planungsdokumente Ihnen bei der Vorbereitung eines BI-Projekts helfen. Dies ist eine Gelegenheit für Sie, Ihr Verständnis zu überprüfen, sicherzustellen, dass Sie die Erwartungen der Aktivität erfüllt haben, und eine mögliche Lösung zu prüfen.

Im Beispiel des Stakeholder-Anforderungsdokuments werden Sie feststellen, dass Bereiche, in denen Ihnen Informationen fehlen, fett hervorgehoben sind. Bei Ihren eigenen Projekten kann es hilfreich sein, direkt im Dokument zu vermerken, was Ihnen fehlt. Wenn Sie dann weitere Fragen stellen, können Sie diese Notizen durch die richtigen Informationen ersetzen.

Die meisten Informationen in diesen Dokumenten stammen direkt aus den Notizen im Szenario der Aktivität. Sie können auch etwas umformulieren, um die Notizen aus der Besprechung zusammenzufassen oder zu erweitern. In den Notizen heißt es beispielsweise: „Ziel ist es zu verstehen, wie diese Käufer und Verkäufer ihre Plattform nutzen.“ Die Erkenntnisse könnten dann in das Design neuer Produkte einfließen und die Plattform verbessern.“ Sie könnten dies in den Abschnitt „Geschäftsprobleme“ des Planungsdokuments übersetzen, indem Sie es so formulieren: „Wie nutzen Käufer und Verkäufer die Plattform von MarkIt?“ Wie kann MarkIt seine Plattform verbessern?“ Dadurch wird die Sprache in den Notizen als Frage und nicht als Aussage formuliert.

Im Beispiel des Projektanforderungsdokuments müssen Sie jede Anfrage des Stakeholders als „erforderlich“, „erwünscht“ oder „nice to have“ zuweisen. Einen Hinweis darauf, was wo hingehört, finden Sie in der Sprache der Stakeholder. In den Szenarionotizen könnten einige der Anfragen „muss“ enthalten, während andere möglicherweise „können wir?“ enthalten. oder „sollte“. 

Sie werden außerdem feststellen, dass dieses Dokument weitere Felder enthält, in denen Informationen fehlen. Dies kann Hinweise darauf geben, was Sie in Folgebesprechungen fragen sollten.

Das Exemplar des Strategiedokuments ist das längste Dokument und weist mehr fehlende Informationen auf. Da Sie aber in dieser Phase bestimmen können, welche Arten von Diagrammen Sie erstellen möchten, können Sie viele Ihrer Antworten Ihrem besten Ermessen überlassen. Sofern Ihnen der Stakeholder nicht sagt, welche Arten von Diagrammen er möchte, müssen Sie Ihr BI-Fachwissen nutzen, um zu entscheiden, was am besten funktioniert. In diesem Szenario haben Ihnen die Stakeholder keine Vorschläge für Diagrammtypen gemacht. Dies bedeutet, dass Sie die Entscheidungen selbst treffen oder sich dazu entschließen können, den Stakeholder um weitere Beratung zu bitten. 

Im Strategiedokument können Sie auch eine Skizze eines Modells einfügen. 

Ein Dashboard-Mockup, das Filter und Diagramme für ein BI-Dashboard auf den Verkaufsinformationen von MarkIt plant.

Dieses Modell enthält Filter für Zeitskalen, z. B. täglich, wöchentlich und monatlich. Es enthält den aktuellen Status und Verlaufsdiagramme der folgenden Kennzahlen: abgeschlossene Verkäufe, veröffentlichte Angebote, entfernte Angebote und beliebte Suchbegriffe. Es verfügt über ein Balkendiagramm, das die gesamte Site-Nutzung mit der durchschnittlichen Site-Nutzung pro Benutzer vergleicht. Außerdem gibt es ein Balkendiagramm mit der Verteilung der Kontaktmethoden, die zum Einreichen von Supportanfragen verwendet werden.

Diese Skizze stellt einen ersten Entwurf dar, wie Ihr Dashboard aussehen könnte, wenn Sie in die Visualisierungsphase eines BI-Projekts gelangen. Später in diesem Programm erfahren Sie mehr über Mockups, einschließlich der Verwendung eines Mockups zum Planen eines Dashboards.

Die zentralen Thesen

Das Ausfüllen von Planungsdokumenten ist eine hilfreiche Möglichkeit, Details aus Ihren Gesprächen mit Stakeholdern zu organisieren und sich auf ein Business-Intelligence-Projekt vorzubereiten. Sie werden diese Fähigkeiten später in diesem Kurs anwenden, wenn Sie Ihr eigenes BI-Projekt beginnen.

Fallstudie: FeatureBase, Teil 1: Feinabstimmung von Metriken für die Datenerfassung

In diesem Kurs haben Sie über die Phasen des Business Intelligence-Prozesses nachgedacht. Diese Fallstudie mit FeatureBase konzentriert sich auf die Erfassungsphase des BI-Prozesses, in der Sie statische, rückwärtsgerichtete Daten untersuchen und die nächsten beiden Phasen des Projekts planen. In zwei weiteren Fallstudien erfahren Sie, wie FeatureBase die Analyse- und Überwachungsphasen dieses Projekts angegangen ist. Zunächst müssen Sie jedoch das Problem, den Prozess und die Lösungen für diese erste Phase des Projekts verstehen.

Infografik, die den Problem-, Prozess- und Lösungszyklus skizziert

Als BI-Experte werden Sie einen Mehrwert für die Organisationen schaffen, mit denen Sie zusammenarbeiten. Ihr Fachwissen wird Unternehmen dabei helfen, auf die richtigen Daten zuzugreifen, Daten zu nutzen, um Wachstums- und Verbesserungsmöglichkeiten zu finden, und diese Erkenntnisse in die Tat umzusetzen. Während dieses Zertifikatsprogramms haben Sie die Möglichkeit zu erfahren, wie verschiedene Unternehmen mithilfe von Business Intelligence reale Herausforderungen gemeistert haben. In dieser Lektüre werden Sie vorgestelltFeatureBase, ein operatives KI-Unternehmen in Austin, Texas. In den drei Kursen werden Sie auf drei Fallstudien stoßen, die die Herangehensweise des FeatureBase-Teams an ein tatsächliches Problem verfolgen, mit dem es konfrontiert war. Dies ist ein großartiges Beispiel dafür, wie ein echtes Unternehmen ein BI-Problem gelöst und ein ganzes Projekt abgeschlossen hat – angefangen mit der Identifizierung eines Problems und der Vorbereitung auf die Lösung!

FeatureBase-Protokoll

Firmenhintergrund

FeatureBase entwickelt Technologien, die den Wert von Daten erschließen, sobald sie erstellt werden. Das in Austin, Texas, ansässige Team und die Community bestehen aus Datenbank-, verteilten System- und Cloud-Ingenieuren sowie führenden Forschern für Bitmap-Innovationen. Der CEO von FeatureBase, HO Maycotte, und die Gründungsingenieure arbeiten seit fast 20 Jahren daran, eine Lücke im Datenbankmarkt zu schließen und ein neues Datenformat zu entwickeln, das speziell darauf ausgelegt ist, schnellere Berechnungen zu ermöglichen.

Ihre Kerntechnologie, FeatureBase, ist die erste OLAP-Datenbank, die vollständig auf Bitmaps basiert und Echtzeitanalysen und Anwendungen für maschinelles Lernen ermöglicht, indem sie gleichzeitig niedrige Latenz, hohen Durchsatz und hochgradig gleichzeitige Arbeitslasten ausführt.

Die Herausforderung

Das Vertriebsteam stellte fest, dass ein erheblicher Teil der potenziellen Kunden während des Verkaufszyklus abwanderte. Als sie dieses Muster entdeckten, stellten sie fest, dass sie nicht über die Daten verfügten, die sie brauchten, um wirklich zu erkennen, wann Kunden abwanderten. Und wenn sie nicht feststellen konnten, wann die Kunden abfielen, konnten sie auch nicht herausfinden, warum. Und herauszufinden, warum, war der Schlüssel zur Entwicklung von Lösungen zur Bewältigung dieses Problems.

Die Vorgehensweise

Die erste Frage lautete: „Warum haben wir unser vierteljährliches Umsatzziel nicht erreicht?“ Um diese Frage zu beantworten, musste das FeatureBase-Team wissen, warum die Leute abgesetzt wurden und wann die Absetzung erfolgte. Aber sie verfügten nicht über die in ihre Datenbank integrierten Metriken, um das tatsächlich zu messen. Um diese Frage in ihre Datensammlung einzubauen, mussten sie experimentieren, welche Daten tatsächlich nützlich waren, neue Attribute hinzufügen und ihre Metriken verfeinern. Für dieses spezielle Projekt war die Lösung klar: den bestehenden Verkaufstrichter mit Schlüsselattributen zu jedem potenziellen Kunden in jeder Phase des Projekts neu erstellen. 

Zu diesem Zweck haben der Vertriebsleiter, der Marketingleiter und der CEO gemeinsam über neue Kennzahlen und deren Implementierung im System entschieden. Es waren einige Experimente erforderlich – das Team war bestrebt, seinen Datenerfassungsprozess zu iterieren und zu optimieren, um diese Lösung zu optimieren. Tuning ist oft ein wirklich notwendiger Teil der Entwicklung zukunftsweisender Lösungen; Das erste Modell ist meist nicht das beste. Es ist ein erster Entwurf; Sie müssen es überarbeiten, um die optimalste Version der Lösung zu erhalten! Als BI-Experte müssen Sie in der Realität möglicherweise einige Iterationen durchführen, um Ihr Modell dorthin zu bringen, wo Sie es benötigen.

Der nächste Schritt

Als BI-Experte kommt es vor, dass Ihnen eine Frage gestellt wird, für deren Beantwortung Sie nicht über ausreichende Daten verfügen. Manchmal müssen Sie weiter graben, weiter recherchieren und darüber nachdenken, wie Sie eine aufschlussreiche Antwort liefern können, die Ihr Team tatsächlich nutzen kann. In diesem Fall stellte das FeatureBase-Team fest, dass es einen Trend beobachtet hatte, konnte jedoch anhand der vorhandenen Daten nicht feststellen, um welchen Trend es sich handelte und wie man darauf reagieren sollte. Der erste Schritt bestand darin, zu entscheiden, welche Metriken implementiert werden könnten, um tatsächlich nützliche Beobachtungen zu erfassen. Als Team arbeiteten sie zusammen und optimierten ihre Datenerfassungsprozesse. Im nächsten Kurs erfahren Sie mehr darüber, wie sie diese neuen Prozesse tatsächlich in ihre Datenbanksysteme implementiert haben, welche Tools sie verwendet haben und wie sie dadurch zum Erfolg geführt haben. 

Wenn Sie mehr über den Ansatz von FeatureBase zur Beantwortung dieser Frage erfahren möchten, finden Sie weitere Informationen in der FeatureBaseZweiter TeilUndTeil dreiLesungen, die in kommenden Kursen vorgestellt werden.

Die Toolbox des Business-Intelligence-Profis

Video 09

Business Intelligence mag wie ein neues Konzept erscheinen, aber es gibt es tatsächlich schon seit Jahrhunderten. Im Laufe der Geschichte haben Unternehmensführer aus der ganzen Welt BI genutzt, um Maßstäbe für Best Practices zu setzen. Tatsächlich stammt der Begriff Business Intelligence aus dem Jahr 1865, als er in der Enzyklopädie der Handels- und Geschäftsanekdoten auftauchte. In dem Buch wurde der Begriff verwendet, um zu erzählen, wie ein Bankier, Sir Henry Furnace, großen Geschäftserfolg hatte, indem er Daten sammelte und schnell auf Informationen reagierte, bevor seine Konkurrenten dies konnten. Darin wurde beschrieben, dass Furnace einen vollständigen und perfekten Zug an Business Intelligence geschaffen habe. Nun, alle einsteigen, denn in diesem Video bringen wir Ihren BI-Zug in Bewegung. Und wie bei jeder Zugreise beginnt auch diese damit, herauszufinden, wo Sie sich befinden und wohin Sie wollen. In BI erfordert die Zuordnung einer Route ein Datenmodell, das das erste Werkzeug in Ihrer Toolbox ist. Datenmodelle organisieren Datenelemente und wie sie miteinander in Beziehung stehen. Sie tragen dazu bei, dass die Daten systemübergreifend konsistent bleiben, und erklären Benutzern, wie die Daten organisiert sind. Dies gibt BI-Experten klare Anweisungen beim Navigieren in einer Datenbank. Okay, die zweite Station unserer Zugfahrt und das zweite Werkzeug in Ihrem Werkzeugkasten ist die Datenpipeline. Eine Datenpipeline ist eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren. Stellen Sie sich die Datenpipeline als Bahngleise vor, die sich über große Entfernungen erstrecken, passieren und kreuzen. Über diese Kanäle werden Daten in einem reibungslosen automatisierten Fluss von der ursprünglichen Quelle zum Ziel transportiert. Aber das ist nicht alles. Auf dem Weg dorthin liegt es an den BI-Experten, diese Daten so umzuwandeln, dass sie, wenn sie in die Station oder Datenbank gelangen, für die Verwendung bereit sind. Ein Beispiel hierfür ist ETL (Extrahieren, Transformieren und Laden). Zur Erinnerung: ETL ist eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen. Der ETL-Prozess spielt eine Schlüsselrolle bei der Datenintegration, da er es BI-Experten ermöglicht, Daten aus mehreren Quellen zu übernehmen, sie zu konsolidieren und alle diese Daten zusammenzuführen. Okay, jetzt sind wir bei unserem dritten Tool angekommen, den Datenvisualisierungen. Sie wissen wahrscheinlich, dass Datenvisualisierung die grafische Darstellung von Daten ist. Einige beliebte Datenvisualisierungsanwendungen sind Tableau und Looker. Mit diesen Apps ist es möglich, leicht verständliche Bilder zu erstellen, die eine fesselnde Geschichte erzählen. Auf diese Weise können Personen, die nicht viel Erfahrung mit Daten haben, leicht auf die benötigten Informationen zugreifen und diese interpretieren. Stellen Sie sich Datenvisualisierungen als Fotos vor, die Sie nach Ihrer Zugfahrt mit Freunden und Familie teilen. Die besten sind klar und einprägsam und heben die spezifischen Orte hervor, die Sie besucht haben, die wichtigen Orte, die Sie besucht haben, und die interessanten Erlebnisse, die Sie gemacht haben. BI-Experten nutzen Datenvisualisierungen innerhalb von Dashboards. Unser letzter Stopp auf der Fahrt. Wie Sie vielleicht wissen, ist ein Dashboard ein interaktives Visualisierungstool, das eingehende Live-Daten überwacht. Stellen Sie sich die Armaturenbretter vor, die von Lokführern verwendet werden. Sie achten genau auf diese Werkzeuge, um den Zustand der Lokomotive und anderer wichtiger Geräte ständig zu überwachen. Dashboards halten die Fahrer mit dem Kontrollzentrum in Verbindung, um sicherzustellen, dass die Routen frei sind und die Signale ordnungsgemäß funktionieren. Und die Fahrer können das Armaturenbrett schnell scannen, um etwaige Gefahren oder Verzögerungen zu erkennen, die sich auf die Zuggeschwindigkeit oder den Fahrplan auswirken könnten. Egal welches BI-Tool Sie verwenden, ein sehr wichtiges Konzept in unserem Bereich ist die Iteration. So wie die Eisenbahner ständig Züge, Gleise und andere Systeme evaluieren und modernisieren, sind BI-Experten immer auf der Suche nach neuen Lösungen und innovativen Wegen, um unsere Prozesse voranzutreiben. Wir tun dies durch Iteration. Bei der Iteration wird ein Vorgang immer wieder wiederholt, um dem gewünschten Ergebnis immer näher zu kommen. Es ist, als würde ein Eisenbahningenieur immer wieder Signalsysteme testen, um sie zu verfeinern und zu verbessern und so eine möglichst sichere Umgebung für Bahnreisende zu gewährleisten. In den kommenden Kursen erfahren Sie viel mehr über Iteration und gehen noch tiefer in die Anwendung all dieser spannenden Tools ein. Außerdem erfahren Sie, wie Sie Ihre Fähigkeiten und Erfahrungen mit einem Tool übertragen und auf ein anderes anwenden können. Vielen Dank, dass Sie mich auf dieser Reise begleitet haben. Wir haben noch viele weitere spannende Ziele vor uns.

Überprüfen Sie Technologien und Best Practices

Im weiteren Verlauf dieses Programms werden Sie mit einer Vielzahl von Business-Intelligence-Tools vertraut gemacht, die Ihnen bei der Erstellung von Systemen und Prozessen helfen und Stakeholdern Erkenntnisse liefern, die sie als Grundlage für Geschäftsentscheidungen nutzen können. Abhängig von der Organisation werden Sie im Laufe der Zeit möglicherweise unterschiedliche Tools verwenden. Glücklicherweise können die Fähigkeiten, die Sie jetzt erlernen, zwischen den Tools übertragen werden. In dieser Lektüre erhalten Sie einige Best Practices zum Erstellen von Pipeline-Tools, Datenvisualisierungen und Dashboards, die Sie unabhängig von den Programmen oder Tools, die Ihr Unternehmen verwendet, anwenden können. 

Optimale Pipeline-Prozesse

Die Entwicklung von Tools zur Optimierung und Automatisierung bestimmter Datenprozesse ist ein großer Teil der Arbeit eines BI-Experten. Die Möglichkeit, Prozesse wie das Verschieben und Transformieren von Daten zu automatisieren, erspart Benutzern die manuelle Ausführung dieser Arbeit und gibt ihnen die Möglichkeit, schnell selbst Antworten zu erhalten. Es gibt eine Vielzahl von Tools, mit denen BI-Experten Pipelines erstellen. Und obwohl es einige wesentliche Unterschiede zwischen ihnen gibt, handelt es sich hierbei um viele Best Practices, die unabhängig davon gelten, welches Tool Sie verwenden. 

Modulares Design

Wie Sie erfahren haben, handelt es sich bei einer Datenpipeline um eine Reihe von Prozessen, die Daten aus verschiedenen Quellen an ihren endgültigen Bestimmungsort zur Speicherung und Analyse transportieren. Eine Pipeline nimmt mehrere Prozesse auf und kombiniert sie zu einem System, das die Daten automatisch verarbeitet. Modulare Designprinzipien können die Entwicklung einzelner Teile eines Rohrleitungssystems ermöglichen, sodass diese als einzigartige Bausteine ​​behandelt werden können. Der modulare Aufbau ermöglicht es außerdem, einzelne Komponenten eines Systems zu optimieren und zu ändern, ohne den Rest der Pipeline zu beeinträchtigen. Darüber hinaus hilft es Benutzern, Fehler schnell zu isolieren und zu beheben. 

Zu den weiteren Best Practices im Zusammenhang mit dem modularen Design gehört die Verwendung der Versionskontrolle, um Änderungen im Laufe der Zeit zu verfolgen und bei Bedarf rückgängig zu machen. Darüber hinaus können BI-Experten eine separate Entwicklungsumgebung erstellen, um Änderungen vor der Implementierung zu testen und zu überprüfen.  

Andere allgemeine Best Practices für die Softwareentwicklung gelten auch für Datenpipelines.

Überprüfen Sie die Genauigkeit und Integrität der Daten

Die BI-Prozesse, die Datenergebnisse verschieben, transformieren und zur Analyse melden, sind nur dann nützlich, wenn die Daten selbst korrekt sind. Stakeholder müssen sich auf die Daten verlassen können, auf die sie zugreifen, um wichtige Geschäftsentscheidungen zu treffen. Es ist auch möglich, dass unvollständige oder ungenaue Daten Fehler innerhalb eines Pipelinesystems verursachen können. Aus diesem Grund ist es notwendig, die Genauigkeit und Integrität der Daten sicherzustellen, unabhängig davon, welche Tools Sie zum Aufbau des Systems verwenden. Einige wichtige Dinge, die Sie bei den Daten in Ihren Pipelines beachten sollten, sind: 

  • Vollständigkeit : Sind die Daten vollständig?

  • Konsistenz : Sind die Datenwerte über alle Datensätze hinweg konsistent?

  • Konformität : Entsprechen die Datenwerte dem erforderlichen Format?

  • Genauigkeit : Stellen die Datenwerte tatsächliche Werte genau dar?

  • Redundanz : Sind Datenwerte innerhalb desselben Datensatzes redundant?

  • Integrität : Fehlen den Datenwerten wichtige Beziehungen?

  • Aktualität : Sind die Daten aktuell?

Das Erstellen von Kontrollpunkten in Ihrem Pipeline-System, um diese Probleme zu beheben, bevor die Daten an das Ziel geliefert werden, spart später im Prozess Zeit und Aufwand! Sie können beispielsweise SQL-Skripte hinzufügen, die jede Phase auf Duplikate testen und eine Fehlermeldung senden, wenn welche gefunden werden.

Erstellen einer Testumgebung

Der Aufbau der Pipeline-Prozesse ist nur ein Aspekt der Erstellung von Datenpipelines. Es handelt sich um einen iterativen Prozess, bei dem Sie möglicherweise Aktualisierungen und Änderungen vornehmen müssen, je nachdem, wie sich Technologie oder Geschäftsanforderungen ändern. Da Sie weiterhin Verbesserungen am System vornehmen möchten, müssen Sie Möglichkeiten schaffen, Änderungen vor der Implementierung zu testen, um den Zugriff der Benutzer auf die Daten nicht zu beeinträchtigen. Dazu könnte das Erstellen einer separaten Staging-Umgebung für Daten gehören, in der Sie Tests ausführen können, oder das Einfügen eines stabilen Datensatzes, an dem Sie Änderungen vornehmen und mit aktuellen Prozessen vergleichen können, ohne den aktuellen Fluss zu unterbrechen. 

Dynamische Dashboards

Dashboards sind leistungsstarke visuelle Tools, mit denen BI-Experten Stakeholder mit Dateneinblicken versorgen können, auf die sie bei Bedarf zugreifen und diese nutzen können. Dashboards verfolgen, analysieren und visualisieren Daten, um Fragen zu beantworten und Probleme zu lösen. Die folgende Tabelle fasst zusammen, wie BI-Experten mit Dashboards umgehen und wie sie sich von ihren Stakeholdern unterscheiden:

Element des Dashboards

BI-Berufsgrundsätze

Grundsätze der Stakeholder

Zentralisierung

Schaffung einer einzigen Datenquelle für alle Beteiligten

Arbeiten mit einer umfassenden Datenansicht, die ihre Initiativen, Ziele, Projekte, Prozesse und mehr verfolgt

Visualisierung

Daten nahezu in Echtzeit anzeigen

Sich ändernde Trends und Muster schneller erkennen

Einsicht

Bestimmen relevanter Informationen, die einbezogen werden sollen

Eine ganzheitlichere Geschichte hinter den Zahlen verstehen, um Ziele im Auge zu behalten und datengesteuerte Entscheidungen zu treffen

Anpassung

Erstellen benutzerdefinierter Ansichten, die einem bestimmten Team oder Projekt gewidmet sind

Drilldown zu spezifischeren Bereichen von besonderem Interesse oder Anliegen

Beachten Sie, dass neue Daten nur dann automatisch in Dashboards übernommen werden, wenn die Datenstruktur gleich bleibt. Wenn die Datenstruktur anders ist oder sich geändert hat, müssen Sie das Dashboard-Design aktualisieren, bevor die Daten automatisch in Ihrem Dashboard aktualisiert werden.

Dashboards sind Teil einer Geschäftsreise

So wie das Dashboard eines Flugzeugs dem Piloten seine Flugroute anzeigt, tut Ihr Dashboard dasselbe für Ihre Stakeholder. Es hilft ihnen, den Weg des Projekts innerhalb der Daten zu navigieren. Wenn Sie klare Markierungen hinzufügen und wichtige Punkte auf Ihrem Dashboard hervorheben, werden Benutzer verstehen, wohin Ihre Datengeschichte führt. Anschließend können Sie zusammenarbeiten, um sicherzustellen, dass das Unternehmen dorthin gelangt, wo es hin muss. Um mehr über das Entwerfen von Dashboards zu erfahren, lesen Sie diese Lektüre aus dem Google Data Analytics-Zertifikat:Entwerfen überzeugender Dashboards

Effektive Visualisierungen

Datenvisualisierungen sind ein wichtiger Bestandteil der meisten Dashboards. Sie sollten daher sicherstellen, dass Sie effektive Visualisierungen erstellen. Dazu müssen Sie Ihre Gedanken mithilfe von Frameworks organisieren, wichtige Designprinzipien einbeziehen und sicherstellen, dass Sie irreführende oder ungenaue Datenvisualisierungen vermeiden, indem Sie Best Practices befolgen.

Frameworks zum Organisieren Ihrer Gedanken zur Visualisierung

Frameworks können Ihnen dabei helfen, Ihre Gedanken zur Datenvisualisierung zu ordnen und Ihnen eine nützliche Checkliste als Referenz zur Verfügung zu stellen. Hier sind zwei Frameworks, die für Sie beim Erstellen Ihrer eigenen Datenvisualisierungen nützlich sein können: 

  1. Die McCandless-Methode

  2. Kaiser Fung’s Junk Charts Trifecta Checkup

Präaufmerksame Attribute: Markierungen und Kanäle

Um wirkungsvolle visuelle Darstellungen zu schaffen, muss man sich mit der Funktionsweise des Gehirns befassen und dann spezifische visuelle Elemente verwenden, um die Informationen effektiv zu kommunizieren. Präaufmerksame Attribute sind die Elemente einer Datenvisualisierung, die Menschen automatisch und ohne bewusste Anstrengung erkennen. Die wesentlichen Grundbausteine, die Visuals sofort verständlich machen, werden Markierungen und Kanäle genannt. 

Design-Prinzipien

Sobald Sie die voraufmerksamen Eigenschaften der Datenvisualisierung verstanden haben, können Sie mit den Designprinzipien für die Erstellung effektiver Visuals fortfahren. Diese Designprinzipien sind für Ihre Arbeit als Datenanalyst von entscheidender Bedeutung, da sie Ihnen dabei helfen, sicherzustellen, dass Sie Visualisierungen erstellen, die Ihre Daten Ihrem Publikum effektiv vermitteln. Wenn Sie diese Regeln im Hinterkopf behalten, können Sie Ihre Datenvisualisierungen planen und bewerten, um zu entscheiden, ob sie für Sie und Ihre Ziele funktionieren. Und wenn nicht, können Sie sie anpassen! 

Vermeiden Sie irreführende oder irreführende Diagramme 

Wie Sie bereits erfahren haben, liefert BI den Menschen Einblicke und Wissen, die sie für ihre Entscheidungen nutzen können. Daher ist es wichtig, dass die von Ihnen erstellten Visualisierungen Ihre Daten genau und wahrheitsgetreu wiedergeben. Um mehr über effektive Visualisierungen zu erfahren, lesen Sie diese Lektüre aus dem Google Data Analytics-Zertifikat:Effektive Datenvisualisierungen. 

Machen Sie Ihre Visualisierungen für alle in Ihrem Publikum zugänglich und nützlich, indem Sie Folgendes beachten:

  • Beschriftung

  • Textalternativen

  • Textbasiertes Format

  • Unterscheiden

  • Vereinfachen

Um mehr über barrierefreie Visualisierungen zu erfahren, sehen Sie sich dieses Video zum Google Data Analytics-Zertifikat an:Datenvisualisierungen zugänglich machen.

Abschluss

Als BI-Experte werden Sie auf eine Vielzahl von Tools zum Erstellen von Pipeline-Systemen, zum Entwickeln von Dashboards zum Teilen mit Stakeholdern und zum Erstellen effektiver Visualisierungen zur Demonstration Ihrer Ergebnisse stoßen. Diese Werkzeuge erfordern unterschiedliche Fähigkeiten, deren Erlernen Zeit und Mühe erfordert. Aber oft können Sie Ihr Wissen auf zahlreiche Prozesse und Systeme anwenden.

Bereiten Sie sich darauf vor, Ihre Eignung für das Google Business Intelligence-Zertifikat zu beurteilen

Das Google Business Intelligence Certificate ist ein Programm für alle, die sich für BI interessieren. Allerdings ist ein Hintergrundwissen in der Datenanalyse eine nützliche Grundlage für viele der Konzepte, die in diesen Kursen vermittelt werden. Wir haben ein Quiz erstellt, mit dem Sie Ihre Bereitschaft einschätzen und entscheiden können, ob Sie mit dem Zertifikat fortfahren oder zunächst einige Grundlagen durchgehen möchten.

Im Quiz werden Fragen dazu gestellt, wie gut Sie mit den folgenden Datenanalysekonzepten vertraut sind:

  • Allgemeine Datenanalyseprinzipien und Datentypen

  • Datenstrategie

  • Datenintegrität und Datenbereinigung

  • Tabellenkalkulations- und SQL-Tools zur Datenaggregation und -analyse

  • Programmiersprachen

  • Datenvisualisierung, Dashboards und Austausch von Erkenntnissen mit anderen

Wenn Sie über das Google Data Analytics-Zertifikat zu diesem Programm kommen oder in einem Bereich der Datenanalyse gearbeitet haben, sind Sie möglicherweise bereits mit diesen Konzepten vertraut. Das ist großartig! Dieses Quiz ist nur eine Möglichkeit, noch einmal zu überprüfen, ob Sie für den Erfolg bereit sind. Darüber hinaus werden Ihnen einige Ressourcen zur Verfügung gestellt, die Ihnen eine Auffrischung ermöglichen, bevor Sie fortfahren.

Um Ihnen bei der Entscheidung zu helfen, ob Sie für diesen Kurs bereit sind:

  • Nehmen Sie am optionalen Bereitschaftsquiz teil.

  • Sehen Sie sich den Bewertungsleitfaden an, um festzustellen, ob Sie auf den Inhalt des Google Business Intelligence-Zertifikats vorbereitet sind. Eine Punktzahl von 80 % oder mehr ist das angestrebte Ziel für die Bereitschaft zu diesen Kursen.

  • Befolgen Sie basierend auf Ihrer individuellen Punktzahl die Empfehlungen im Bewertungsleitfaden für Ihre nächsten Schritte.

Wenn Sie sicher sind, dass Sie über die erforderlichen Kenntnisse und Erfahrungen für dieses Zertifikat verfügen, können Sie das Bereitschaftsquiz nach dieser Lektüre überspringenGehen Sie direkt zur nächsten Aktivität.

Einpacken

Video 10

Sie haben fast das Ende dieses ersten Abschnitts des Google Business Intelligence-Zertifikats erreicht. Bisher haben Sie die spannende Welt der BI kennengelernt, viele mögliche Karrieren kennengelernt und die wertvollen Beiträge entdeckt, die BI-Experten jeden Tag leisten. Sie haben außerdem einige wichtige Grundkenntnisse zur BI-Strategie sowie zur Datenreife erworben. Und wie BI-Prozesse und -Tools es Unternehmen ermöglichen, höhere Reifegrade zu erreichen. Wir haben viel besprochen und ich bin mir sicher, dass Sie bereits über so viel nachdenken müssen, aber das ist eine tolle Sache. Das bedeutet, dass Sie Daten gesammelt haben, alles, was Sie gelernt haben, berücksichtigen und beginnen, Ihren eigenen Fortschritt zu überwachen. Darum geht es bei Intelligenz. Im weiteren Verlauf dieses Kurses bauen Sie weiterhin auf einer starken Basis auf, die Sie geschaffen haben. Bald erfahren Sie auch, wie Sie unsere vielfältige Gemeinschaft von Lernenden wie Ihnen nutzen können, um die Unterstützung zu erhalten, die Sie auf Ihrem Weg benötigen. Wie ich bereits erwähnt habe, ist die Zusammenarbeit mit anderen eine wirklich großartige Möglichkeit, Herausforderungen anzugehen, Lösungen zu finden und Ressourcen zu bündeln, genau wie die Teammitglieder, die mit den BI-Experten zusammenarbeiten. Die Community, auf die Sie über Diskussionsforen zugreifen können, ist eine unschätzbare Ressource für Sie, während Sie Ihre BI-Reise vorantreiben. In den Diskussionsforen erkunden die Lernenden BI-Tools und -Techniken, helfen sich gegenseitig bei der Fehlerbehebung, bieten Unterstützung und vieles mehr. Sie teilen ihre Karriereziele und den Bereich, in dem sie ihre BI-Kenntnisse einsetzen möchten. Es ist ein großartiger Ort, um andere Menschen zu treffen und sich mit ihnen zu vernetzen, die sich ebenfalls für BI interessieren. Ich hoffe, dass Sie sich etwas Zeit nehmen, um mit anderen Lernenden in Kontakt zu treten. Es wird Ihre Erfahrung erfüllender und unterhaltsamer machen. Nochmals herzlichen Glückwunsch zu all den Fortschritten, die Sie bisher gemacht haben. Beeindruckende Arbeit.

Gagan: Vernetzen Sie sich

Video 11

Mein Name ist Gagan. Ich bin Leiter des Daten- und Analyseteams im Finanzbereich. Meine Teams konzentrieren sich auf Daten-BI-, Reporting- und Visualisierungslösungen für unsere Partner. Unsere Aufgabe ist es, Daten nützlicher zu machen, damit Menschen anhand dieser Daten gute Geschäftsentscheidungen treffen können. Als ich meine Karriere begann, fing ich also in der Softwareentwicklung an, und zu dieser Zeit gab es noch keine Datenteams. Damals gab es noch keine dedizierten Data-Science-Funktionen. Wenn Sie meine frühere Version von vor 20 Jahren gefragt hätten und sich vorstellen würden, wo ich sein würde, hätte ich nie gedacht, dass ich hier bei Google sein würde. Ich hätte nie gedacht, dass ich das als Vollzeitjob machen würde. Es gab mehrere Personen, die in vielen verschiedenen Aspekten dessen, was einen wirklich guten BI-Menschen ausmacht, wirklich gut sind. Wenn ich an einem Problem arbeite, spreche ich mit Menschen. Das habe ich im Laufe der Zeit herausgefunden, als ich mit verschiedenen Personen zusammengearbeitet habe, zum Beispiel habe ich mit einem meiner Manager gesprochen. Sie war wirklich gut im Programmieren. Ihr SQL-Code und wie sie ihn geschrieben hat und wie gut er organisiert war, ich habe so viel von ihr gelernt. Ich habe in meiner Karriere auch mit einer anderen Person zusammengearbeitet, die wirklich gut darin war, Kennzahlen zu organisieren und zu verstehen, wie man sie entwirft. Ich habe mich mit einer anderen Person getroffen, die wirklich gut darin war, mithilfe von Daten Geschichten zu erzählen. So hatte ich die Gelegenheit, informelle Kontakte zu knüpfen und mit diesen Personen zusammenzuarbeiten, die ich wirklich bewunderte, weil sie etwas beisteuerten und von ihnen lernten. Im Laufe der Zeit haben sich viele Networking-Möglichkeiten ergeben. Es gibt viele LinkedIn-Gruppen. Es gibt vielleicht viele berufliche Netzwerke, in denen Sie vielleicht außerhalb arbeiten. Es gibt lokale Kapitel der BI Data Science Analytics, an denen Sie teilnehmen könnten. Im Laufe der Zeit haben sich die Ressourcen geändert, und auch die Ressourcen, die ich genutzt habe, haben sich geändert. Aber ich würde sagen, dass meine langjährige BI- und Datenanalyseerfahrung, die Menschen, die ich verstehen konnte, und die spezifischen Fähigkeiten, die sie mitbrachten, sehr nützlich waren. Beim Networking geht es nicht darum, jemanden zu erreichen, der erfahrener oder älter ist als Sie. Es geht darum, aufzubauen und zu verstehen, wie man die richtigen Leute erreicht und diese Verbindungen knüpft. Wenn Sie tatsächlich das Wort „Networking“ herausnehmen und sagen: „Was versuche ich zu tun?“ Es geht tatsächlich darum, gute berufliche Beziehungen aufzubauen. Und wie jede Beziehung ist es eine Einbahnstraße. Was können Sie in dieser Partnerschaft bieten? Sie denken vielleicht, dass Sie nichts beizutragen haben und nur versuchen, von dem Einzelnen zu lernen. Sie verfügen vielleicht definitiv über mehr technisches Fachwissen oder die nötige Erfahrung, aber sie verfügen nicht über die Lebenserfahrung und das Fachwissen von dort, wo Sie herkommen. Und sie könnten auch Wert darauf legen, zu verstehen, woher Sie kommen und wie Sie sich weiterentwickeln wollen.

Tipps und Techniken zur Quizdurchführung

Video 12

Wie Sie wissen, absolvieren Sie am Ende jedes Kursabschnitts eine benotete Prüfung. Und jetzt ist es an der Zeit, sich auf Ihr erstes vorzubereiten. Diese Bewertung ist eine effektive Möglichkeit, Ihr Verständnis der wichtigsten Business-Intelligence-Konzepte zu überprüfen. Es wird Ihnen auch dabei helfen, Vertrauen in Ihr Verständnis von BI aufzubauen und gleichzeitig Bereiche zu identifizieren, in denen Sie sich weiter verbessern können. Beurteilungen können manchmal überwältigend sein, aber wenn man sie mit einer Strategie angeht, sind sie viel leichter zu bewältigen. Hier finden Sie eine Liste mit Tipps, die Sie für den Erfolg nutzen können. Bevor Sie eine Bewertung ablegen, überprüfen Sie Ihre Notizen, die Videos, Lektüren und das aktuelle Glossar, um sich über den Inhalt zu informieren. Nehmen Sie sich bei der Beurteilung Zeit. Sehen Sie sich den gesamten Test noch einmal an, bevor Sie Antworten eingeben. Beantworten Sie dann die einfachen Fragen. Überspringen Sie diejenigen, auf die Sie nicht sofort die Antwort wissen. Konzentrieren Sie sich bei Multiple-Choice-Fragen zunächst darauf, die falschen Antworten zu eliminieren. Außerdem empfiehlt es sich, jede Frage zweimal zu lesen. Es gibt oft Hinweise, die einem beim ersten Mal entgehen könnten. Wenn Sie Angst verspüren, beruhigen Sie sich mit einigen mentalen Übungen. Eine Möglichkeit, dies zu tun, besteht darin, eine einfache mathematische Aufgabe im Kopf zu lösen oder Ihren Namen rückwärts zu buchstabieren. Dadurch können Sie sich Informationen auch leichter merken. Bevor Sie die Beurteilung abgeben, überprüfen Sie Ihre Arbeit, aber seien Sie zuversichtlich. Manchmal ändern Leute eine Antwort, weil sie sich falsch anfühlt, sie aber tatsächlich richtig ist. Ihr erster Instinkt ist normalerweise der beste. Vertrauen Sie schließlich sich selbst. Oft wissen Menschen viel mehr, als sie sich selbst zutrauen. Jeder lernt unterschiedlich schnell und auf unterschiedliche Weise. Aber es ist wichtig, den Schwung beizubehalten. Nehmen Sie sich die Zeit, die Sie brauchen, und machen Sie weiter, wenn Sie sich bereit fühlen. Du hast das.

Glossarbegriffe aus Modul 1

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Sehen Sie sich den Inhalt des Google Data Analytics-Zertifikats zum Datenanalyseprozess an

Video 13

Nachdem Sie nun alle Phasen des Datenlebenszyklus verstanden haben, ist es an der Zeit, zu den Phasen der Datenanalyse überzugehen. Sie klingen ähnlich, sind aber zwei verschiedene Dinge. Bei der Datenanalyse handelt es sich nicht um einen Lebenszyklus, sondern um den Prozess der Datenanalyse. Als nächstes werden wir uns jeden Schritt des Datenanalyseprozesses ansehen und wie er sich auf Ihre Arbeit als Datenanalyst auswirkt. Auch wenn dieses Programm darauf ausgelegt ist, diese Schritte zu befolgen, wird Ihnen das Verständnis dieser Zusammenhänge bei Ihrer eigenen Analyse und Ihrer Arbeit in diesem Programm helfen. Sie haben bereits erfahren, dass dieses Programm nach den Phasen des Datenanalyseprozesses modelliert ist. Dieses Programm ist in Kurse unterteilt, von denen sechs auf den Schritten Datenanalyse, Fragen, Vorbereiten, Verarbeiten, Analysieren, Teilen und Handeln basieren. Okay, beginnen wir mit dem ersten Schritt der Datenanalyse, der Ask-Phase. In dieser Phase machen wir zwei Dinge. Wir definieren das zu lösende Problem und stellen sicher, dass wir die Erwartungen der Stakeholder und Stakeholder vollständig verstehen und am Projekt beteiligt sind. Es sind Menschen, die Zeit und Ressourcen in ein Projekt investiert haben und am Ergebnis interessiert sind. Lassen Sie uns das aufschlüsseln und zunächst das Problem definieren. Das bedeutet, dass Sie sich den aktuellen Zustand ansehen und feststellen, wie er sich vom Idealzustand unterscheidet. Normalerweise gibt es ein Hindernis, das wir beseitigen müssen, oder etwas, das behoben werden muss. Beispielsweise möchte eine Sportarena möglicherweise die Wartezeit der Fans in der Warteschlange vor den Eintrittskarten verkürzen. Das Hindernis besteht darin, herauszufinden, wie man die Kunden schneller an ihre Plätze bringt. Ein weiterer wichtiger Teil der Anfragephase ist das Verständnis der Erwartungen der Stakeholder. Der erste Schritt besteht hier darin, zu bestimmen, wer die Stakeholder sind, zu denen Ihr Vorgesetzter, ein leitender Sponsor oder Ihre Vertriebspartner gehören können. Es kann viele Stakeholder geben, aber allen gemeinsam ist, dass sie Entscheidungen mitgestalten, Handlungen und Strategien beeinflussen und bestimmte Ziele haben, die sie erreichen wollen. Auch ihnen liegt das Projekt am Herzen, und deshalb ist es so wichtig, ihre Erwartungen zu verstehen. Wenn Ihr Vorgesetzter Ihnen beispielsweise ein Datenanalyseprojekt im Zusammenhang mit Geschäftsrisiken zugewiesen hat, wäre es sinnvoll zu bestätigen, ob er alle Arten von Risiken einbeziehen möchte, die sich auf das Unternehmen auswirken könnten. Oder einfach nur wetterbedingte Risiken wie Hurrikane und Tornados: Die Kommunikation mit Ihren Stakeholdern ist der Schlüssel, um sicherzustellen, dass Sie während des gesamten Projekts engagiert und auf dem richtigen Weg bleiben. Als Datenanalyst ist es daher sehr wichtig, starke Kommunikationsstrategien zu entwickeln. Dieser Teil der Fragephase hilft Ihnen, sich auf das Problem selbst und nicht nur auf seine Symptome zu konzentrieren. Wie Sie bereits erfahren haben, sind die fünf Weisen hier äußerst hilfreich. In einem kommenden Kurs lernen Sie, wie Sie durch die Zusammenarbeit mit Stakeholdern effektive Fragen stellen und das Problem definieren. Sie werden auch Strategien behandeln, die Ihnen dabei helfen können, Ihre Entdeckungen so zu teilen, dass das Interesse der Menschen geweckt wird. Danach fahren wir mit dem Vorbereitungsschritt des Datenanalyseprozesses fort. Hier sammeln und speichern Datenanalysten Daten, die sie für den bevorstehenden Analyseprozess verwenden. Sie erfahren mehr über die verschiedenen Datentypen und erfahren, wie Sie ermitteln, welche Datentypen für die Lösung eines bestimmten Problems am nützlichsten sind. Sie werden auch entdecken, warum es so wichtig ist, dass Ihre Daten und Ergebnisse objektiv und unvoreingenommen sind. Mit anderen Worten: Alle Entscheidungen, die auf der Grundlage Ihrer Analyse getroffen werden, sollten immer auf Fakten basieren und fair und unparteiisch sein. Als nächstes kommt der Prozessschritt, in dem Datenanalysten alle Fehler und Ungenauigkeiten finden und beseitigen, die den Ergebnissen im Weg stehen können. Dies bedeutet normalerweise, Daten zu bereinigen, sie in ein nützlicheres Format umzuwandeln und zwei oder mehr Datensätze zu kombinieren, um die Informationen vollständiger zu machen. Und das Entfernen von Ausreißern, also Datenpunkten, die die Informationen verfälschen könnten. Anschließend lernen Sie, wie Sie die von Ihnen vorbereiteten Daten überprüfen, um sicherzustellen, dass sie vollständig und korrekt sind. In dieser Phase geht es darum, die Details richtig zu machen. So korrigieren Sie auch Tippfehler, Konsistenzen oder fehlende und ungenaue Daten und können als Krönung Strategien für die Überprüfung und Weitergabe Ihrer Datenbereinigung an die Beteiligten entwickeln. Dann ist es an der Zeit zu analysieren. Bei der Analyse der von Ihnen gesammelten Daten müssen Sie Tools verwenden, um diese Informationen umzuwandeln und zu organisieren. Damit Sie nützliche Schlussfolgerungen ziehen, Vorhersagen treffen und fundierte Entscheidungen treffen können. Es gibt viele leistungsstarke Tools, die Datenanalysten bei ihrer Arbeit verwenden. In diesem Kurs lernen Sie zwei davon kennen. Tabellenkalkulationen und strukturierte Abfragesprache oder SQL, was oft als Fortsetzung ausgesprochen wird. Der nächste Kurs basiert auf der Freigabephase. Hier erfahren Sie, wie Datenanalysten Ergebnisse interpretieren und sie mit anderen teilen, um Stakeholdern dabei zu helfen, effektive, datengesteuerte Entscheidungen zu treffen. Und in der Freigabephase ist Visualisierung der beste Freund eines Datenanalysten. In diesem Kurs wird daher hervorgehoben, warum Visualisierung wichtig ist, um anderen verständlich zu machen, was Ihre Daten Ihnen sagen. Werden Sie mit den richtigen Bildern, Fakten und Zahlen so dadurch sind sie leichter zu erkennen und komplexe Konzepte werden leichter zu verstehen. Wir werden verschiedene Arten von Visuals und einige großartige Tools zur Datenvisualisierung erkunden. Außerdem üben Sie Ihre eigenen Präsentationsfähigkeiten, indem Sie überzeugende Diashows erstellen und lernen, wie Sie auf die Beantwortung von Fragen bestens vorbereitet sind. Dann machen wir eine Pause vom Datenanalyseprozess, um Ihnen all die wirklich coolen Dinge zu zeigen, die Sie mit der Programmiersprache r machen können. Sie müssen nicht mit r oder Programmiersprachen im Allgemeinen vertraut sein, Sie müssen lediglich wissen, dass r ein beliebtes Werkzeug zur Datenbearbeitung, Berechnung und Visualisierung ist. Und für unsere letzte Datenanalysephase müssen wir handeln: Dies ist der aufregende Moment, in dem das Unternehmen alle Erkenntnisse nutzt, die Sie, die Datenanalysten, bereitgestellt haben. Und setzt sie ein, um das ursprüngliche Geschäftsproblem zu lösen, und wird während des gesamten Programms auf der Grundlage dessen handeln, was Sie gelernt haben. Hier bereiten Sie sich auf Ihre Jobsuche vor und haben die Möglichkeit, ein Fallstudienprojekt abzuschließen. Es ist eine großartige Gelegenheit für Sie, alles, woran Sie im Laufe dieses Kurses gearbeitet haben, zusammenzuführen. Darüber hinaus hilft Ihnen das Hinzufügen einer Fallstudie zu Ihrem Portfolio, sich von den anderen Kandidaten abzuheben, wenn Sie sich für Ihren ersten Job als Datenanalyst bewerben. Da Sie nun die verschiedenen Schritte des Datenanalyseprozesses kennen und wissen, wie unser Kurs dies widerspiegelt, haben Sie alles, was Sie brauchen, um zu verstehen, wie dieser Kurs funktioniert. Und meine Google-Kollegen und ich werden hier sein, um Sie bei jedem Schritt des Weges zu begleiten.

Sehen Sie sich den Inhalt des Google Data Analytics-Zertifikats zur Datenstrategie an

Video 14

Vorhin habe ich Ihnen gesagt, dass Sie bereits über analytische Fähigkeiten verfügen. Vielleicht wissen Sie es noch nicht. Beim Erlernen neuer Dinge übersehen Menschen manchmal ihre eigenen Fähigkeiten, aber es ist wichtig, dass Sie sich die Zeit nehmen, sie anzuerkennen, insbesondere da diese Fähigkeiten Ihnen als Datenanalysten helfen werden. Tatsächlich sind Sie wahrscheinlich besser vorbereitet, als Sie denken. Glauben Sie mir nicht? Nun, lass es mich beweisen. Beginnen wir damit, zu definieren, wovon ich hier spreche. Analytische Fähigkeiten sind Qualitäten und Eigenschaften, die mit der Lösung von Problemen anhand von Fakten verbunden sind. Es gibt viele Aspekte analytischer Fähigkeiten, wir konzentrieren uns jedoch auf fünf wesentliche Punkte. Sie sind Neugier, Verständnis für Zusammenhänge, technische Denkweise, Datendesign und Datenstrategie. Nun denken Sie vielleicht, dass ich über solche Fähigkeiten nicht verfüge oder dass ich nur ein paar davon habe, aber bleiben Sie bei mir und ich wette, Sie werden Ihre Meinung ändern. Beginnen wir mit der Neugier. Bei Neugier geht es darum, etwas lernen zu wollen. Neugierige Menschen suchen meist nach neuen Herausforderungen und Erfahrungen. Das führt zu Wissen. Allein die Tatsache, dass Sie gerade hier bei mir sind, zeigt, dass Sie neugierig sind. Alles klar, das war einfach. Denken Sie nun darüber nach, den Kontext zu verstehen. Kontext ist der Zustand, in dem etwas existiert oder geschieht. Dies kann eine Struktur oder eine Umgebung sein. Eine einfache Möglichkeit, den Kontext zu verstehen, besteht darin, bis 5, 1, 2, 3, 4, 5 zu zählen. Alle diese Zahlen existieren im Kontext von eins bis fünf, aber was wäre, wenn ein Freund von Ihnen zu Ihnen sagen würde: „1, 2.“ , 4, 5, 3.“ Nun, die drei werden aus dem Zusammenhang gerissen sein. Ganz einfach, oder? Aber es kann etwas knifflig sein. Es besteht eine gute Chance, dass Sie gar nicht bemerken, dass die drei aus dem Zusammenhang gerissen sind, wenn Sie nicht genau aufpassen. Deshalb ist es wichtig, zuzuhören und zu versuchen, das Gesamtbild zu verstehen. In Ihrem eigenen Leben stellen Sie die Dinge ständig in einen Kontext. Denken wir zum Beispiel an Ihre Einkaufsliste. Wenn Sie Artikel wie Mehl, Zucker und Hefe gruppieren, fügen Sie Ihren Lebensmitteln Kontext hinzu. Das spart Ihnen Zeit, wenn Sie beim Backen oder im Supermarkt sind. Schauen wir uns ein anderes Beispiel an. Haben Sie schon einmal ein Kartenspiel gemischt und dabei den Joker bemerkt? Wenn Sie ein Spiel ohne Joker spielen, bedeutet die Identifizierung dieser Karte, dass Sie verstehen, dass sie aus dem Zusammenhang gerissen ist. Entfernen Sie es und die Wahrscheinlichkeit, dass Sie ein erfolgreiches Spiel spielen, ist viel größer. Jetzt wissen wir also, dass Sie sowohl neugierig sind als auch die Fähigkeit haben, Zusammenhänge zu verstehen. Kommen wir zur dritten Fähigkeit, einer technischen Denkweise. Eine technische Denkweise beinhaltet die Fähigkeit, Dinge in kleinere Schritte oder Teile zu zerlegen und auf geordnete und logische Weise damit zu arbeiten. Wenn Sie beispielsweise Ihre Rechnungen bezahlen, unterteilen Sie den Vorgang wahrscheinlich bereits in kleinere Schritte. Vielleicht beginnen Sie damit, sie nach ihrem Datum zu sortieren. Als nächstes können Sie die Summe addieren und diesen Betrag mit dem Saldo auf Ihrem Bankkonto vergleichen. Dies würde Ihnen helfen herauszufinden, ob Sie Ihre Rechnungen jetzt bezahlen können oder ob Sie bis zum nächsten Gehaltsscheck warten sollten. Schließlich würden Sie sie bezahlen. Wenn Sie etwas, das wie eine einzige Aufgabe erscheint, wie das Bezahlen Ihrer Rechnungen, in einen geordneten Prozess in kleinere Schritte unterteilen, ist das die Verwendung einer technischen Denkweise. Lassen Sie uns nun den vierten Teil der analytischen Fähigkeiten untersuchen, das Datendesign. Datendesign ist die Art und Weise, wie Sie Informationen organisieren. Als Datenanalyst hat man beim Design normalerweise mit einer tatsächlichen Datenbank zu tun, aber auch hier können die gleichen Fähigkeiten problemlos auf den Alltag angewendet werden. Denken Sie zum Beispiel darüber nach, wie Sie den Kontext in Ihrem Telefon organisieren. Das ist eigentlich eine Art Datendesign. Vielleicht listen Sie sie nach Vornamen statt nach Nachnamen auf, oder Sie verwenden E-Mail-Adressen anstelle ihrer Namen. Was Sie eigentlich tun, ist, eine klare, logische Liste zu entwerfen, mit der Sie einen Kontakt schnell und einfach anrufen oder ihm eine SMS schicken können. Das fünfte und letzte Element analytischer Fähigkeiten ist nicht zuletzt die Datenstrategie. Unter Datenstrategie versteht man die Verwaltung der Personen, Prozesse und Tools, die bei der Datenanalyse verwendet werden. Lassen Sie uns das aufschlüsseln. Sie verwalten Menschen, indem Sie sicherstellen, dass sie wissen, wie sie mit den richtigen Daten Lösungen für das Problem finden, an dem Sie arbeiten. Bei Prozessen geht es darum, sicherzustellen, dass der Weg zu dieser Lösung klar und zugänglich ist, und bei Tools müssen Sie sicherstellen, dass die richtige Technologie für die Aufgabe verwendet wird. Nun zweifeln Sie vielleicht an meiner Fähigkeit, Ihnen ein Beispiel aus dem wirklichen Leben zu geben, das die Datenstrategie demonstriert, aber schauen Sie sich das an. Stellen Sie sich einen Rasenmäher vor. Schritt eins wäre das Lesen der Bedienungsanleitung des Mähers. Dadurch wird sichergestellt, dass die beteiligten Personen – in diesem Beispiel Sie selbst – wissen, wie sie die verfügbaren Daten nutzen können. Das Handbuch weist Sie darauf hin, eine Schutzbrille und geschlossene Schuhe zu tragen. Dann geht es weiter mit Schritt 2: Den Prozess und den Weg klar und zugänglich machen. Dazu müssen Sie über den Rasen laufen und große Stöcke oder Steine aufheben, die Ihnen im Weg stehen könnten. Schließlich überprüfen Sie in Schritt 3 den Rasenmäher und Ihr Werkzeug, um sicherzustellen, dass genügend Benzin und Öl vorhanden sind und sich in einem betriebsbereiten Zustand befindet, damit der Rasen gemäht werden kann sicher. Hier hast du es. Jetzt kennen Sie die fünf wesentlichen Fähigkeiten eines Datenanalysten. Neugier, Kontextverständnis, technische Denkweise, Datendesign und Datenstrategie. Ich habe Ihnen gesagt, dass Sie bereits ein analytischer Denker sind. Jetzt können Sie im weiteren Verlauf dieses Kurses damit beginnen, diese Fähigkeiten aktiv zu üben. Neugierig, was als nächstes kommt? Fahren Sie mit dem nächsten Video fort.

Sehen Sie sich den Inhalt des Google Data Analytics-Zertifikats zur Datenverwaltung an

Video 15

Metadaten und Metadaten-Repositorys sind sehr leistungsstarke Werkzeuge in der Data Analyst Toolbox. Wie wir bereits besprochen haben, nutzen Datenanalysten sie, um eine einzige Quelle der Wahrheit zu schaffen, die Daten konsistent und einheitlich zu halten und sicherzustellen, dass die Daten, mit denen wir arbeiten, genau, präzise, relevant und aktuell sind. Diese Tools erleichtern auch den Zugriff auf und die Nutzung von Daten, indem sie unsere Prozesse standardisieren. In diesem Video erkunden wir weitere Komponenten von Metadaten und erfahren, wie Metadatenanalysten arbeiten, um die Dinge zu organisieren. Wir wissen, dass die Datenmenge weiter wächst, aber viele Unternehmen nutzen ihre Daten einfach nicht. Manchmal wissen sie nicht, was sie haben, manchmal können sie es nicht finden, oder manchmal vertraut ein Unternehmen ihm einfach nicht. Insbesondere in größeren Unternehmen können Daten zahlreiche verschiedene Prozesse und Systeme durchlaufen, und das Zusammenführen von Daten aus so vielen Orten kann eine große Herausforderung sein. Nehmen wir zum Beispiel an, ein Unternehmen verfügt zunächst über ein herkömmliches Datenspeichersystem in seinen Büros, doch wenn die Datenmenge, die es besitzt, immer größer wird, wird auch Cloud-Speicher benötigt, und dieses Unternehmen könnte auch auf Zweit- oder Drittsysteme zugreifen und diese nutzen Parteidaten von einer Partnerorganisation. Jedes dieser Systeme hat seine eigenen Regeln und Anforderungen, sodass jedes die Daten auf völlig unterschiedliche Weise organisiert, was die Komplexität noch erhöht. Kein Wunder, dass so viele Unternehmen Schwierigkeiten haben, die richtigen Daten im richtigen Moment zu finden. Metadaten hingegen werden an einem einzigen zentralen Ort gespeichert und geben dem Unternehmen standardisierte Informationen über alle seine Daten. Dies geschieht auf zwei Arten. Erstens umfassen Metadaten Informationen darüber, wo sich jedes System befindet und wo sich die Datensätze innerhalb dieser Systeme befinden. Zweitens beschreiben die Metadaten, wie alle Daten zwischen den verschiedenen Systemen verknüpft sind. Ein weiterer wichtiger Aspekt von Metadaten ist die sogenannte Datenverwaltung. Data Governance ist ein Prozess zur Sicherstellung der formellen Verwaltung der Datenbestände eines Unternehmens. Dies gibt einer Organisation eine bessere Kontrolle über ihre Daten und hilft einem Unternehmen bei der Bewältigung von Problemen im Zusammenhang mit Datensicherheit und Datenschutz, Integrität, Benutzerfreundlichkeit sowie internen und externen Datenflüssen. Es ist wichtig zu beachten, dass es bei der Datenverwaltung um mehr als nur die Standardisierung von Terminologie und Verfahren geht, sondern um die Rollen und Verantwortlichkeiten der Personen, die täglich mit den Metadaten arbeiten. Dabei handelt es sich um Metadatenspezialisten, die Unternehmensdaten organisieren und pflegen und so sicherstellen, dass diese von höchster Qualität sind. Diese Personen erstellen grundlegende Metadatenidentifikationen und ermitteln Informationen, beschreiben die Art und Weise, wie verschiedene Datensätze zusammenarbeiten, und erklären die vielen verschiedenen Arten von Datenressourcen. Metadatenspezialisten erstellen auch sehr wichtige Standards, die jeder befolgt, und die Modelle, die zur Organisation der Daten verwendet werden. Eines haben sie alle gemeinsam: Egal, ob sie bei einem Technologieunternehmen, einem gemeinnützigen Verein oder einem Finanzinstitut gearbeitet haben: Metadatenanalysten sind großartige Teamplayer. Es liegt ihnen am Herzen, Daten zugänglich zu machen, indem sie sie mit Kollegen und anderen Interessengruppen teilen. Wenn Sie nach einer Stelle suchen, die Sie dazu ermutigt, alle Daten zu erkunden, die die digitale Welt zu bieten hat, ist der Weg zum Metadatenanalysten möglicherweise die richtige Wahl für Sie. Aber so oder so sind Unternehmen aller Art mit Markttrends und Konkurrenz konfrontiert und müssen verstehen, warum ein Prozess funktioniert und ein anderer nicht. Mithilfe der Datenanalyse können sie wichtige Fragen beantworten und sich weiter verbessern.

Willkommen zu Modul 2

Video 16

Willkommen im zweiten Abschnitt des Google Business Intelligence-Zertifikats. Ich freue mich sehr, dass Sie wieder dabei sind. Nachdem Sie nun über eine solide Grundlage in den Grundlagen von BI verfügen, ist es an der Zeit, sich auf den eigentlichen BI-Prozess zu konzentrieren. Dabei geht es darum, zu lernen, wie man mithilfe von BI-Tools effektiv mit Stakeholdern interagiert, um die verfügbaren Daten optimal zu nutzen und die Leistungsfähigkeit der schnellen Überwachung für intelligente Geschäftsentscheidungen zu nutzen. Und eine Sache, die all diese Aspekte von BI verbindet, ist das Stellen von Fragen. Ich erlebe immer wieder, dass die erfolgreichsten Menschen in unserem Bereich diejenigen sind, die viele Fragen stellen. Wir fragen unsere Kollegen, was sie dabei ausbremst oder für Reibungsverluste sorgt. Wir fragen nach unseren Kunden, Wettbewerbern und was auf einem globalen Markt vor sich geht. Wir fragen, wie die Dinge funktionieren, damit wir etwas über verschiedene Tools und Technologien lernen können. Als ich anfing, stellte ich unzählige Fragen zu den Fähigkeiten und Einschränkungen verschiedener Systeme, auch wenn ich diese speziellen Tools in meiner täglichen Arbeit nicht nutzte. Das liegt daran, dass ich allein aufgrund meines Grundverständnisses einen Bezug zur Arbeit meines Teams herstellen und Möglichkeiten erkennen konnte, wie ich einen positiven Beitrag leisten kann. Als ich beispielsweise zu Google kam, lernte ich die Google SQL-Plattformen und die verschiedenen SQL-Sprachen kennen, die je nach den beteiligten Tools verwendet werden. Manchmal waren auch andere Sprachen wie Python und JavaScript beteiligt, was ich noch nie zuvor erlebt hatte. Um mich vertraut zu machen, habe ich Wert darauf gelegt, Fragen zu stellen, wie diese Dinge funktionieren und an wen ich mich wenden kann, um mehr zu erfahren. Ich ermutige Sie, dasselbe in Ihrer eigenen Karriere zu tun, und auch während Sie dieses Zertifikat anstreben. Zögern Sie nicht, in den Diskussionsforen Fragen zu stellen, wenn Sie auf ein Thema stoßen, über das Sie mehr erfahren möchten. Es werden viele Informationen abgedeckt. In diesem Abschnitt des Kurses untersuchen wir zunächst, wie wir erfolgreich mit einer vielfältigen Gruppe von Interessengruppen zusammenarbeiten können. Dann werden Sie entdecken, wie die schnelle Überwachung nahezu in Echtzeit es Benutzern ermöglicht, wichtige Kennzahlen zu sammeln und darüber zu berichten und sie dann anzuwenden, um bessere Entscheidungen zu treffen. Darüber hinaus beginnen Sie mit dem Aufbau einiger Karriereressourcen, indem Sie Ihre Online-Präsenz verbessern, Strategien für Networking und Mentoring entwickeln und ein Portfolio aufbauen, das zukünftige Personalmanager beeindrucken wird. All dies beginnt mit dem Verständnis der Geschäftsanforderungen und wichtigen Ergebnisse einer Organisation. Denn wer seine Ziele erreichen will, muss sie zunächst definieren. Jetzt habe ich eine Frage an Sie. Sind Sie bereit, loszulegen? Lass uns gehen.

Business-Intelligence-Stakeholder

Video 17

Wie Sie feststellen, ist es BI-Experten ein großes Anliegen, Menschen dabei zu helfen, ihre Arbeit effektiver zu erledigen. Bei meiner Arbeit verspüre ich ein großes Erfolgserlebnis, wenn ich weiß, dass ich meinen Stakeholdern Zeit gespart, ihnen geholfen habe, einen besseren Prozess zu finden, oder ihnen einen völlig neuen Ansatz gezeigt habe. Dadurch können sie sich auf andere Aufgaben konzentrieren, bei denen sie ihre individuellen Stärken und Interessen optimal nutzen können. Aber bevor ich das alles tun kann, muss ich sie, ihre Rollen und Verantwortlichkeiten sowie ihre Geschäftsziele zunächst kennenlernen. Schließlich benötigen unterschiedliche Menschen unterschiedliche BI-Einblicke. Aber sobald ich dieses Verständnis habe, kann ich viel leichter erkennen, worum es bei einem bestimmten Projekt geht und was meine Stakeholder von mir erwarten. Das werden wir jetzt in diesem Video erkunden. Zur Erinnerung: Ein Stakeholder ist jemand, der Zeit und Ressourcen in ein Projekt investiert und an dessen Ergebnis interessiert ist. Dies liegt in der Regel daran, dass sie die Arbeit, die Sie leisten, für die Erfüllung ihrer eigenen Aufgaben benötigen. Aber manchmal ist es umgekehrt. Du brauchst sie. In jedem Fall dreht sich alles um Teamarbeit, und deshalb ist es so wichtig, sicherzustellen, dass die Ergebnisse mit den Anforderungen des Teams übereinstimmen. Manchmal wird ein Stakeholder als Kunde oder Benutzer bezeichnet, seine allgemeine Rolle ist jedoch immer noch dieselbe. Im BI-Prozess gibt es alle möglichen Beteiligten, wir konzentrieren uns jedoch auf die vier häufigsten. Dazu gehören der Projektsponsor, der Systemanalyst, der Entwickler und die Geschäftsinteressenten. Beginnen wir mit dem Projektsponsor. Diese Person trägt die Gesamtverantwortung für ein Projekt und legt die Kriterien für seinen Erfolg fest. Zur Rechenschaftspflicht gehört die Abrechnung oder Verantwortung für Projektaktivitäten. Projektsponsoren sind Vertreter der Unternehmensseite, das heißt in der Regel, dass sie bei der Planung eines Projekts involviert sind und sich für dessen Umsetzung einsetzen. Und da der Projektsponsor dafür verantwortlich ist, Ereignisse, Änderungen und Meilensteine rechtzeitig und transparent mit anderen Stakeholdern zu teilen, ist es für BI-Experten wichtig, den Projektsponsor stets auf dem Laufenden zu halten. Hier ist ein Beispiel. In einem früheren Team arbeitete ich an einer Initiative, bei der die Kundendienstabteilung ihre Betriebsplattform änderte. Der Projektsponsor war der Direktor für Cloud-Systeme. Sie war für die Vision des Projekts verantwortlich, versammelte die relevanten Teams und legte die wichtigsten Ziele fest. Als BI-Expertin stellte ich sicher, dass ich ihr die Informationen zur Verfügung stellte, die sie zur Unterstützung dieser Bemühungen benötigte, z. B. welche Eingaben ich benötigen würde und wie lange es dauern würde, ein Dashboard zu erstellen. Der Entwickler ist der nächste Stakeholder auf unserer Liste. Entwickler verwenden Programmiersprachen, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben. Sie werden sie vielleicht als Computerprogrammierer, Programmierer oder Softwareentwickler bezeichnet. Es gibt zwei Haupttypen von Entwicklern: Anwendungssoftwareentwickler und Systemsoftwareentwickler. App-Entwickler entwerfen Computer- oder Mobilanwendungen. Denn ihre Arbeit konzentriert sich hauptsächlich auf die Kreation für Verbraucher. Diese Fachleute konzentrieren sich auf die Bedürfnisse der Benutzer, überwachen die Leistung und ändern Programme nach Bedarf. Entwickler von Systemsoftware sind eher an einem BI-Projekt beteiligt, da sie Anwendungen und Programme für die Back-End-Verarbeitungssysteme entwickeln, die in Organisationen verwendet werden. Um auf mein Beispiel des Kundendienstprojekts zurückzukommen: Der Systemsoftwareentwickler arbeitete an den Back-End-Einstellungen der Plattform, um sicherzustellen, dass Daten in Datentabellen flossen, anhand derer Analysten ermittelten, wie zufrieden die Kunden mit der Kundendienstabteilung waren. Als nächstes kommt der Systemanalytiker. Diese Person identifiziert Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen, um sicherzustellen, dass sie zur Erreichung der Geschäftsziele beitragen. Systemanalysten untersuchen, wie ein Unternehmen seine Computerhardware und -software, Cloud-Dienste und verwandte Technologien nutzt. Anschließend nutzen sie das Gelernte, um diese Tools zu iterieren und zu verbessern. Während des Kundendienstprojekts arbeiteten die Systemanalysten beispielsweise mit den Rohdaten, die vom Systemsoftwareentwickler bereitgestellt wurden. Dann organisierten sie es in Daten, die ich als BI-Experte für Berichtszwecke verwenden konnte. Jetzt sind wir bei den Geschäftsinteressenten angelangt. Wenn Sie mit dem Google Data Analytics-Zertifikat vertraut sind, haben Sie viel über diese Personen gelernt. Geschäftsinteressenten investieren Zeit und Ressourcen in ein Projekt und sind an dessen Ergebnis interessiert. Schauen Sie sich diesen Inhalt gerne noch einmal an, wenn Sie die Interessenvertreter Ihres Unternehmens überprüfen möchten, bevor Sie fortfahren. Alle Personen, die Sie in diesem Video kennenlernen, sind unterschiedlich und erfordern daher alle unterschiedliche Anforderungen an den BI-Prozess. Der Schlüssel liegt darin, immer proaktiv zu kommunizieren und der Teamarbeit Priorität einzuräumen. Mein Projekt war ein Erfolg, weil wir alle gemeinsam dabei waren.

Kennen Sie Ihre Stakeholder und deren Ziele

Zuvor haben Sie die vier verschiedenen Arten von Stakeholdern kennengelernt, denen Sie als Business-Intelligence-Experte begegnen können: 

  • Projektsponsor: Eine Person, die Unterstützung und Ressourcen für ein Projekt bereitstellt und für dessen Erfolg verantwortlich ist.

  • Entwickler : Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben. Dazu gehören Anwendungssoftwareentwickler und Systemsoftwareentwickler.

  • Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen.

  • Geschäftsinteressenten: Zu den Geschäftsinteressenten können eine oder mehrere der folgenden Personengruppen gehören: 

    • Das Führungsteam: Das Führungsteam übernimmt die strategische und operative Führung des Unternehmens. Sie setzen Ziele, entwickeln Strategien und stellen sicher, dass die Strategie effektiv umgesetzt wird. Das Führungsteam könnte aus Vizepräsidenten, dem Chief Marketing Officer und hochrangigen Fachleuten bestehen, die bei der Planung und Leitung der Arbeit des Unternehmens helfen. 

    • Das kundenorientierte Team: Das kundenorientierte Team umfasst jeden in einer Organisation, der in gewissem Maße mit Kunden und potenziellen Kunden interagiert. Typischerweise sammeln sie Informationen, legen Erwartungen fest und übermitteln Kundenfeedback an andere Teile der internen Organisation. 

    • Das Data-Science-Team : Das Data-Science-Team untersucht die bereits vorhandenen Daten und findet Muster und Erkenntnisse, die Datenwissenschaftler nutzen können, um zukünftige Trends durch maschinelles Lernen aufzudecken. Dazu gehören Datenanalysten, Datenwissenschaftler und Dateningenieure. 

Nachdem Sie nun mit diesen verschiedenen Arten von Stakeholdern besser vertraut sind, erkunden Sie, wie sie in einem tatsächlichen Geschäftskontext funktionieren. 

BI-Professionals denken über verschiedene Arten von Stakeholdern nach.

Das Geschäft

In diesem Szenario sind Sie ein BI-Experte, der für ein E-Book-Einzelhandelsunternehmen arbeitet. Das kundenorientierte Team ist daran interessiert, die über die E-Reading-App des Unternehmens gesammelten Kundendaten zu nutzen, um die Lesegewohnheiten der Benutzer besser zu verstehen und die App dann entsprechend zu optimieren. Sie haben Sie gebeten, ein System zu erstellen, das Kundendaten über Einkäufe und Lesezeiten in der App erfasst, damit die Daten für ihre Analysten zugänglich sind. Bevor Sie jedoch beginnen können, müssen Sie alle Bedürfnisse und Ziele Ihrer Stakeholder verstehen, um ihnen bei der Verwirklichung dieser Ziele zu helfen. 

Die Stakeholder und ihre Ziele

Projektsponsor

Ein Projektsponsor ist die Person, die Unterstützung und Ressourcen für ein Projekt bereitstellt und für dessen Erfolg verantwortlich ist. In diesem Fall ist der Projektsponsor der Teamleiter des kundenorientierten Teams. Aus Ihren Gesprächen mit diesem Team wissen Sie, dass es an einer Optimierung der E-Reading-App interessiert ist. Dazu benötigen sie ein System, das Kundendaten über Käufe und Lesezeiten an eine Datenbank liefert, mit der ihre Analysten arbeiten können. Mithilfe dieser Daten können die Analysten dann Erkenntnisse über Kaufgewohnheiten und Lesezeiten gewinnen, um herauszufinden, welche Genres am beliebtesten sind, wie lange Leser die App nutzen und wie oft sie neue Bücher kaufen, um Empfehlungen für das UI-Design abzugeben Team. 

Entwickler

Die Entwickler sind die Personen, die Programmiersprachen verwenden, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben. Dazu gehören Anwendungssoftwareentwickler und Systemsoftwareentwickler. Wenn Ihr neuer BI-Workflow Softwareanwendungen und Tools umfasst oder Sie neue Tools erstellen müssen, müssen Sie mit den Entwicklern zusammenarbeiten. Ihr Ziel besteht darin, die Softwaretools Ihres Unternehmens zu erstellen und zu verwalten. Daher müssen sie verstehen, welche Tools Sie verwenden möchten und wofür Sie diese Tools benötigen. In diesem Beispiel sind die Entwickler, mit denen Sie zusammenarbeiten, für die Verwaltung der in der E-Reading-App erfassten Daten verantwortlich.

System-Analytiker

Der Systemanalytiker identifiziert Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen, um sicherzustellen, dass sie zur Erreichung von Geschäftszielen beitragen. Ihr Hauptziel besteht darin, zu verstehen, wie das Unternehmen seine Computerhardware und -software, Cloud-Dienste und verwandte Technologien nutzt, und dann herauszufinden, wie diese Tools verbessert werden können. Der Systemanalyst sorgt also dafür, dass die von den Entwicklern erfassten Daten intern als Rohdaten abgerufen werden können. 

Geschäftsinteressenten

Neben dem kundenorientierten Team, das der Projektsponsor für dieses Projekt ist, gibt es möglicherweise auch andere Geschäftsinteressenten für dieses Projekt, wie z. B. Projektmanager, leitende Fachkräfte und andere Führungskräfte. Diese Stakeholder sind daran interessiert, die Geschäftsstrategie für das gesamte Unternehmen zu steuern. Ihr Ziel ist es, Geschäftsprozesse weiter zu verbessern, den Umsatz zu steigern und die Unternehmensziele zu erreichen. So kann Ihre Arbeit sogar den Chief Technology Officer erreichen! Dabei handelt es sich im Allgemeinen um Menschen, die umfassendere Einblicke benötigen, die ihnen dabei helfen, Entscheidungen in größerem Maßstab zu treffen, im Gegensatz zu detailorientierten Einblicken in Softwaretools oder Datensysteme. 

Abschluss

An BI-Projekten sind häufig viele Teams und Stakeholder beteiligt, die je nach Funktion innerhalb der Organisation unterschiedliche Ziele verfolgen. Es ist wichtig, ihre Perspektiven zu verstehen, da Sie so eine Vielzahl von Anwendungsfällen für Ihre BI-Tools berücksichtigen können. Und je nützlicher Ihre Tools sind, desto wirkungsvoller werden sie sein!

Werden Sie ein erfahrener Business-Intelligence-Kommunikator

Video 18

Vor kurzem haben wir Schlüsselelemente des Business-Intelligence-Prozesses untersucht. Wir haben einige Zeit damit verbracht, typische BI-Stakeholder kennenzulernen, darunter den Projektsponsor, den Systemanalysten, den Entwickler und allgemeine Geschäftsinteressenten. Jetzt gehen wir noch einen Schritt weiter und betrachten einige wichtige Kommunikationsstrategien, die BI-Experten bei der Zusammenarbeit mit diesen Personen anwenden. Bei diesen Strategien geht es darum, zu wissen, wie man die richtigen Fragen stellt, Projektergebnisse definiert und die gewonnenen Geschäftsinformationen effektiv weitergibt. Kein BI-Projekt ist von Anfang an zu 100 % klar, daher müssen Sie oft Ihren Detektivhut aufsetzen. Ein entscheidender Teil der Arbeit als BI-Experte besteht darin, zu wissen, wie man aktuelle Vorgänge untersucht und dann nach Hinweisen sucht, um die Bedürfnisse der Menschen besser zu verstehen und ideale Projektergebnisse zu erzielen. Meine Kollegen und ich bemerken oft, dass ein Stakeholder, Partner oder Mitarbeiter vielleicht sagt, dass er eine Sache braucht, aber was er tatsächlich braucht, ist ganz anders. Und es liegt an uns, der Sache auf den Grund zu gehen und ihnen zum Erfolg zu verhelfen. Unter solchen Umständen können Sie mit ausgeprägten Kommunikationsfähigkeiten tiefer in das Problem, die Herausforderung oder die Chance eintauchen und dann herausfinden, wie Sie das Problem am effektivsten angehen können. Dieser Prozess beginnt damit, die richtigen Fragen zu stellen. Wenn Sie das Google Data Analytics-Zertifikat erworben haben, haben Sie sich einen ganzen Kurs lang auf diese Fragephase des Datenanalyseprozesses konzentriert. Zur schnellen Auffrischung geht es darum, den Unterschied zwischen effektiven und ineffektiven Fragen zu verstehen. Wenn Sie wissen, welche Arten von Fragen zu den besten Erkenntnissen führen, können Sie die Befragung nutzen, um die Erwartungen der Stakeholder vollständig zu verstehen, insbesondere wenn sich ihre Anforderungen von den Anforderungen unterscheiden, die Sie aufgrund Ihrer Berufserfahrung benötigen. Wenn Sie mit der Fragephase zufrieden sind, fahren Sie mit dem nächsten Teil dieser Lektion fort. Wenn Sie diese Grundsätze noch einmal durchgehen möchten, können Sie dies jetzt tun. Okay, nachdem Sie die richtigen Fragen gestellt haben, um das Projekt gründlich zu verstehen, ist es an der Zeit, die Projektergebnisse zu definieren. Ein Liefergegenstand ist jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen. Dies kann ein neues BI-Dashboard, ein Bericht, eine vollständige Analyse, eine Dokumentation eines Prozesses oder einer Entscheidung sein. So ziemlich alles, was von Stakeholdern gewünscht wird, kann ein Ergebnis sein. In BI sind die häufigsten Ergebnisse Dashboards und Berichte, die den Benutzern Erkenntnisse liefern. Beim Brainstorming darüber, welche Ergebnisse produziert werden sollen, ist es hilfreich, eine Liste der zu lösenden Probleme, der zu bewältigenden Herausforderungen oder der zu maximierenden Möglichkeiten zu erstellen. Denken Sie dann über den Workflow für jeden beteiligten Geschäftsprozess nach. Auf diese Weise können Sie visualisieren, welche Arten von Dashboards oder Berichten am produktivsten sind, wie viele erforderlich sind und welche spezifischen Elemente sie jeweils erfordern. Wenn ich beispielsweise gebeten werde, ein Dashboard zu erstellen, nehme ich ein Blatt Papier und beginne, Beispieldiagramme als Modell zu zeichnen. Dann teile ich sie mit den Benutzern. Das hilft in zweierlei Hinsicht. Erstens stellt es sicher, dass meine Vision des Dashboards ihren Vorstellungen entspricht, und zweitens ermöglicht es mir, selbst zu bestätigen, dass alles Sinn macht. Okay, jetzt der letzte Schritt: Business Intelligence effektiv teilen. Es ist wichtig zu wissen, wie man komplizierte technische Daten einfacher und zugänglicher für Personen macht, die mit der verwendeten Terminologie und den beteiligten Systemen nicht vertraut sind. Die Fähigkeit, Informationen klar und prägnant darzustellen, ist von grundlegender Bedeutung, um sicherzustellen, dass Entscheidungsträger die Erkenntnisse verstehen und Ihre Empfehlungen in die Praxis umsetzen können. Auch an diesem Punkt des Prozesses besteht eine wesentliche Verantwortung jedes BI-Experten darin, Voreingenommenheit zu berücksichtigen. Wie Sie wahrscheinlich wissen, ist Voreingenommenheit eine bewusste oder unbewusste Präferenz zugunsten oder gegen eine Person, Personengruppe oder Sache. Es gibt viele verschiedene Arten von Verzerrungen, die sich auf ein datenbezogenes Projekt auswirken können, z. B. Bestätigungsverzerrungen, Datenverzerrungen, Interpretationsverzerrungen und Beobachterverzerrungen. Diese Konzepte wurden im Google Data Analytics-Zertifikat ausführlich vermittelt. Bitte überprüfen Sie sie jetzt, wenn nötig. Jedes Projekt, an dem Sie arbeiten, muss mit einem Fokus auf Fairness beginnen, was bedeutet, dass Ihre Arbeit keine Voreingenommenheit hervorruft oder verstärkt. BI-Experten haben viel Macht, weil wir diejenigen sind, die sehr technische Themen für andere in eine einfache Sprache übersetzen. Es ist wichtig, dass Ihre Übersetzung fair ist. Schließlich vertraut Ihnen Ihr Team. Während des gesamten Programms bauen Sie Ihre Kommunikationsfähigkeiten weiter aus und sind in kürzester Zeit bereit, selbst die komplexesten BI-Erkenntnisse sorgfältig weiterzugeben.

Best Practices für die Kommunikation mit Stakeholdern

Wie Sie erfahren haben, ist die Fähigkeit, effektiv mit Stakeholdern und Projektpartnern zu kommunizieren, der Schlüssel zu Ihrem Erfolg als Business-Intelligence-Experte. In diesem Bereich geht es nicht nur um die Entwicklung von BI-Tools. Es geht darum, diese Tools den Benutzern zugänglich zu machen, um ihnen die Daten zur Verfügung zu stellen, die sie für ihre Entscheidungen benötigen. In dieser Lektüre besprechen Sie wichtige Kommunikationsstrategien und entdecken neue Best Practices, die Ihnen in Zukunft helfen werden. Sie werden auch die Bedeutung von Fairness und der Vermeidung von Voreingenommenheit in BI erkunden. 

Machen Sie BI für Stakeholder zugänglich

Bisher haben Sie drei Schlüsselstrategien für die Kommunikation kennengelernt: 

  • Stellen Sie die richtigen Fragen 

  • Definieren Sie Projektergebnisse

  • Teilen Sie Business Intelligence effektiv

Der Austausch von Business Intelligence kann kompliziert sein; Sie müssen in der Lage sein, technische Prozesse zu vereinfachen, damit sie für eine Vielzahl von Benutzern unkompliziert und zugänglich sind, die die Begriffe oder Konzepte möglicherweise noch nicht verstehen. Die Fähigkeit, Informationen klar und prägnant darzustellen, ist von entscheidender Bedeutung, um sicherzustellen, dass Stakeholder die von Ihnen erstellten Systeme tatsächlich nutzen und auf der Grundlage dieser Erkenntnisse handeln können.

Es gibt einige Fragen, die Sie im Hinterkopf behalten können, um Ihre Kommunikation mit Stakeholdern und Partnern zu leiten:   

  • Wer ist Ihr Publikum? Bei der Kommunikation mit Stakeholdern und Projektpartnern ist es wichtig zu berücksichtigen, mit wem Sie zusammenarbeiten. Berücksichtigen Sie bei der Kommunikation alle Personen, die die von Ihnen erstellten BI-Tools und -Prozesse verstehen müssen. Das Vertriebs- oder Marketingteam hat andere Ziele und Fachkenntnisse als beispielsweise das Data-Science-Team. 

  • Was wissen sie bereits? Da verschiedene Benutzer über unterschiedliche Kenntnisse und Fachkenntnisse verfügen, kann es sinnvoll sein, vor der Kommunikation mit ihnen zu prüfen, was sie bereits wissen. Dies bietet eine Grundlage für Ihre Kommunikation und verhindert, dass Sie sich zu sehr erklären oder wichtige Informationen überspringen.

  • Was müssen sie wissen? Unterschiedliche Stakeholder benötigen unterschiedliche Arten von Informationen. Beispielsweise möchte ein Benutzer möglicherweise verstehen, wie er auf die Daten oder die von Ihnen erstellten Dashboards zugreift und diese verwendet, ist aber wahrscheinlich nicht so sehr an den genauen Details darüber interessiert, wie die Daten bereinigt wurden. 

  • Wie können Sie am besten kommunizieren, was sie wissen müssen? Nachdem Sie über Ihre Zielgruppe nachgedacht haben, was sie bereits weiß und was sie wissen müssen, müssen Sie entscheiden, wie Sie ihnen diese Informationen am besten mitteilen können. Dies kann ein E-Mail-Bericht, ein kleines Meeting oder eine teamübergreifende Präsentation mit einem Frage-und-Antwort-Bereich sein. 

Neben diesen Fragen gibt es noch einige weitere Best Practices für die Kommunikation mit Stakeholdern. 

BI-Experte unter Berücksichtigung von Stakeholdern, Projektfristen und Zielen.

Erstellen Sie realistische Fristen. Erstellen Sie vor Beginn eines Projekts eine Liste der Abhängigkeiten und potenziellen Hindernisse, damit Sie einschätzen können, wie viel zusätzliche Zeit Sie sich nehmen sollten, wenn Sie die Projekterwartungen und Zeitpläne mit Ihren Stakeholdern besprechen.

Kennen Sie Ihr Projekt. Wenn Sie gut verstehen, warum Sie ein neues BI-Tool entwickeln, kann es Ihnen helfen, Ihre Arbeit mit größeren Initiativen zu verknüpfen und dem Projekt Bedeutung zu verleihen. Verfolgen Sie Ihre Diskussionen über das Projekt per E-Mail oder in Besprechungsnotizen und seien Sie bereit, Fragen dazu zu beantworten, wie wichtig bestimmte Aspekte für Ihr Unternehmen sind. Kurz gesagt, es sollte leicht verständlich sein und den Wert erklären, den das Projekt für das Unternehmen bringt. 

Kommunizieren Sie oft. Ihre Stakeholder möchten regelmäßige Updates. Behalten Sie den Überblick über wichtige Projektmeilensteine, Rückschläge und Änderungen. Eine weitere großartige Ressource ist ein Änderungsprotokoll, das eine chronologisch geordnete Liste der Änderungen bereitstellen kann. Anschließend erstellen Sie mithilfe Ihrer Notizen einen Bericht in einem Dokument, das Sie mit Ihren Stakeholdern teilen. 

Priorisieren Sie Fairness und vermeiden Sie voreingenommene Erkenntnisse

Bei BI geht es darum, Stakeholdern die Daten und Tools zur Verfügung zu stellen, die sie benötigen, um fundierte, intelligente Geschäftsentscheidungen zu treffen. Ein Teil davon besteht darin, sicherzustellen, dass Sie ihnen helfen, faire und integrative Entscheidungen zu treffen. Fairness in der Datenanalyse bedeutet, dass die Analyse keine Voreingenommenheit erzeugt oder verstärkt (eine bewusste oder unbewusste Präferenz für oder gegen eine Person, Personengruppe oder Sache). Mit anderen Worten: Sie möchten dazu beitragen, Systeme zu schaffen, die für alle fair und inklusiv sind. 

Als BI-Experte liegt es in Ihrer Verantwortung, so objektiv wie möglich zu bleiben und zu versuchen, die vielen Seiten eines Arguments zu erkennen, bevor Sie Schlussfolgerungen ziehen. Das Beste, was Sie für die Fairness und Genauigkeit Ihrer Daten tun können, besteht darin, sicherzustellen, dass Sie mit Daten beginnen, die auf die angemessenste und objektivste Weise erfasst wurden. Dann verfügen Sie über Fakten, die Sie an Ihr Team weitergeben können.

Ein großer Teil Ihrer Arbeit wird darin bestehen, Daten in einen Kontext zu bringen. Kontext ist der Zustand, in dem etwas existiert oder geschieht; Im Grunde geht es dabei um das Wer, Was, Wo, Wann, Wie und Warum der Daten. Wenn Sie Daten präsentieren, sollten Sie sicherstellen, dass Sie Informationen bereitstellen, die diese Fragen beantworten:

  • WER hat die Daten gesammelt?

  • Worum geht es? Was stellen die Daten in der Welt dar und in welcher Beziehung stehen sie zu anderen Daten? 

  • WANN wurden die Daten erhoben? 

  • WOHER stammen die Daten?

  • WIE wurde es gesammelt? Und wie wurde es für das Reiseziel verändert? 

  • WARUM wurden diese Daten erhoben? Warum ist es für die Geschäftsaufgabe nützlich oder relevant?

Eine Möglichkeit, dies zu erreichen, besteht darin, klarzustellen, dass sich alle von Ihnen geteilten Ergebnisse auf einen bestimmten Datensatz beziehen. Dies kann dazu beitragen, unfaire oder ungenaue Verallgemeinerungen zu vermeiden, die Stakeholder möglicherweise auf der Grundlage Ihrer Erkenntnisse vornehmen möchten. Stellen Sie sich zum Beispiel vor, Sie analysieren einen Datensatz der Lieblingsaktivitäten von Menschen in einer bestimmten Stadt in Kanada. Der Datensatz wurde durch telefonische Befragungen von Haustelefonnummern während der Geschäftszeiten am Tag erhoben. Hier liegt sofort eine Voreingenommenheit vor. Nicht jeder hat ein Telefon zu Hause und nicht jeder ist tagsüber zu Hause. Daher können Erkenntnisse aus diesem Datensatz nicht so verallgemeinert werden, dass sie die Meinung der gesamten Bevölkerung dieser Stadt widerspiegeln. Es sollten weitere Untersuchungen durchgeführt werden, um die demografische Zusammensetzung dieser Personen zu bestimmen.

Sie müssen außerdem sicherstellen, dass die Art und Weise, wie Sie Ihre Daten präsentieren – sei es in Form von Visualisierungen, Dashboards oder Berichten – eine faire Interpretation durch die Stakeholder fördert. Sie haben beispielsweise gelernt, Farbschemata zu verwenden, die für farbenblinde Personen zugänglich sind. Andernfalls könnten Ihre Erkenntnisse für diese Stakeholder schwer verständlich sein

Die zentralen Thesen

Für einen BI-Experten ist es wichtig, Stakeholdern Tools zur Verfügung stellen zu können, mit denen sie jederzeit auf Daten zugreifen können, und über das Wissen zu verfügen, das sie zur Verwendung dieser Tools benötigen. Ihr vorrangiges Ziel sollte es immer sein, Stakeholdern faire, kontextualisierte Einblicke in Geschäftsprozesse und Trends zu geben. Durch effektive Kommunikation können Sie dafür sorgen, dass dies geschieht. 

Der Wert einer Überwachung nahezu in Echtzeit

Video 19

Haben Sie schon einmal online eingekauft und etwas in Ihren Warenkorb gelegt, sich dann aber doch entschieden, es nicht zu kaufen? Ich weiß, dass ich es habe. Ich liebe das Kochen und kaufe gerne online Kochbücher, interessante Gewürze oder vielleicht sogar ein neues Küchengerät. Aber manchmal ändere ich meine Meinung, bevor ich zur Kasse gehe, weil ich lieber das Geld spare, oder ich entscheide, dass die Küchenutensilien, die ich bereits habe, für mein Rezept völlig ausreichend sind. Wenn das passiert, gibt es im Online-Shop einen sogenannten abgebrochenen Warenkorb. Laut der E-Commerce-Plattform Shopify verlieren Online-Händler durch Warenkorbabbrüche jährlich 18 Milliarden Dollar an Umsatzeinnahmen. Dies ist ein großes Problem, dessen Lösung Business-Intelligence-Experten jedoch sehr gut beherrschen. Wie das genau funktioniert, schauen wir uns in diesem Video an. BI-Experten können anhand von Daten erkennen, woher ein Kunde kommt, sei es eine Google-Suche, ein E-Mail-Link oder vielleicht ein Social-Media-Beitrag. Dann können sie die Reise des Käufers beim Besuch der Website visualisieren. Sie sind sogar in der Lage, genau zu bestimmen, wo der Kunde abgestiegen ist, und versuchen herauszufinden, warum. Beispielsweise könnte ein BI-Experte ein Tool erstellen, um zu überwachen, wie schnell die Checkout-Seite der Website geladen wird. Wenn das Team entscheidet, dass es zu lange dauert, kann das Unternehmen Ressourcen bereitstellen, um die Geschwindigkeit der Websites zu verbessern und diesen Kunden hoffentlich auch in Zukunft zu halten. Ein Beispiel für eine Metrik ist das Maß für die Ladegeschwindigkeit einer Website-Seite. Eine Metrik ist ein einzelner quantifizierbarer Datenpunkt, der zur Bewertung der Leistung verwendet wird. Zu den wichtigsten Kennzahlen im BI gehören KPIs. Sie haben gelernt, dass es sich um quantifizierbare Werte handelt, die eng mit der Geschäftsstrategie verknüpft sind und den Fortschritt in Richtung eines Ziels verfolgen. Viele Menschen verwechseln KPIs und Metriken, aber es sind verschiedene Dinge. Der grundlegende Punkt, den Sie im Hinterkopf behalten sollten, ist, dass Metriken KPIs unterstützen und KPIs wiederum allgemeine Geschäftsziele unterstützen. Es ist auch hilfreich zu verstehen, dass KPIs strategischer Natur sind, während Kennzahlen taktischer Natur sind. Zurück zu unserem Beispiel für einen verlassenen Einkaufswagen. Starke KPIs können der Durchschnittswert jeder Online-Transaktion, die Kundenbindung oder der Umsatz im Jahresvergleich sein. Denk darüber so. Eine Strategie ist ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands. Es geht darum, Pläne zu erstellen und umzusetzen, um das zu erreichen, was Sie erreichen möchten. Eine Taktik ist der Weg dorthin. Dabei handelt es sich um eine Methode zur Ermöglichung einer Leistung, einschließlich Aktionen, Ereignissen und Aktivitäten. Unterwegs finden Taktiken als Teil Ihrer Strategie statt, um Ihr Endziel zu erreichen. Wie Trittsteine zwischen jedem Meilenstein. Erreichen Sie genügend Meilensteine und Sie werden Ihr Ziel erreichen. Der erste Schritt bei der BI-Überwachung besteht darin, die Geschäftsziele zu verstehen und zu verstehen, was zu deren Erreichung erforderlich ist. Bei der BI-Überwachung geht es darum, Hardware- und Softwaretools zu entwickeln und zu nutzen, um Daten einfach und schnell zu analysieren und Stakeholder in die Lage zu versetzen, wirkungsvolle Geschäftsentscheidungen zu treffen. Nehmen wir an, unsere E-Commerce-Händler haben sich zum Ziel gesetzt, die Zahl der Warenkorbabbrüche in sechs Monaten um 15 % zu senken. Der BI-Experte würde ein Tool entwickeln, das die Ladegeschwindigkeiten von Webseiten überwacht, um dabei zu helfen, diesen KPI zu erreichen. Schnelle Überwachung bedeutet, dass die Personen, die BI-Tools verwenden, Live- oder nahezu Live-Daten erhalten. Auf diese Weise wissen wichtige Entscheidungsträger sofort, ob die Zahl der abgebrochenen Warenkörbe stark ansteigt, der Lagerbestand eines beliebten Produkts ausgeht oder die Kundendienstmitarbeiter ungewöhnlich viele Anrufe erhalten. Wenn das Unternehmen sofort Bescheid weiß, kann es das Problem so schnell wie möglich beheben. Dies ist eine der wichtigsten Möglichkeiten, mit denen BI-Experten ihren Unternehmen einen echten Mehrwert bieten. Später in diesem Kurs erfahren Sie mehr darüber, wie Sie geeignete Metriken auswählen. Es wird noch viel mehr kommen.

Wie Unternehmen von nahezu Echtzeit-Intelligenz profitieren

 

Zuvor haben Sie erfahren, wie Business-Intelligence-Monitoring Unternehmen dabei helfen kann, schnell Erkenntnisse zu gewinnen, um Probleme zu lösen und Innovationen zu schaffen, die der Konkurrenz einen Schritt voraus sind. Dies ist eine der vielen Möglichkeiten, wie BI-Experten einen praktischen Einfluss haben und einen erheblichen Mehrwert für die Unternehmen schaffen, die sie unterstützen. In dieser Lektüre lernen Sie einige konkrete Beispiele für BI-Überwachung im Geschäftsbereich kennen. 

Das WindyGrid ermöglicht Echtzeit-Reaktionen

Chicago, auch „Windy City“ genannt, ist eine Großstadt mit Millionen von Menschen. Daher ist die Zuweisung städtischer Ressourcen eine ebenso große Aufgabe. Das WindyGrid-Projekt überwacht, was in der Stadt passiert, um den Behörden dabei zu helfen, den kommunalen Betrieb voranzutreiben. Das Projekt enthält Daten von mehreren städtischen Dienststellen, darunter Notrufe, Nicht-Notrufe, Baugenehmigungen, Gesundheitsinspektionen mit externen Daten wie Live-Wetterinformationen und Tweets und mehr. Das WindyGrid-Projekt überwacht beispielsweise bekannte Schlaglöcher und den Status der diesbezüglich eingereichten Beschwerden. Es verfolgt auch die Standorte von Servicefahrzeugen wie Feuerwehrautos und Krankenwagen, um schneller auf Notfälle reagieren zu können. 

Das Unternehmen für Essenssets erstellt individuelle Marketingkampagnen

Ein Hersteller von Essenssets erkannte, dass er einen neuen Weg brauchte, um Mehrausgaben zu verhindern und gleichzeitig effektive Marketingkampagnen umzusetzen. Zu diesem Zweck richtete das BI-Team eine Überwachung nahezu in Echtzeit ein, um Marketingkosten und -renditen zu verfolgen. Dadurch konnten die Teammitglieder ihre Kampagnen effektiver fokussieren und sicherstellen, dass sie dafür nicht ihr Budget überschreiten!  

Restaurantkette vereinheitlicht Abläufe

Eine Restaurantkette mit mehr als 2.000 Standorten verfügte über eine Sammlung von Datenquellen, die nicht sinnvoll miteinander verbunden waren. Um den Betrieb zu vereinheitlichen, implementierten sie ein BI-System, um Daten über den Betrieb von Standorten auf der ganzen Welt zu zentralisieren. Dadurch konnten Unternehmensleiter wichtige Leistungsindikatoren überwachen und an allen Standorten in großem Maßstab Verbesserungen vornehmen.

Die zentralen Thesen

BI-Überwachung stellt Unternehmen die Tools zur Verfügung, die sie benötigen, um Daten schnell zu analysieren und Erkenntnisse aus kontinuierlich aktualisierten Informationen zu gewinnen. Dies ermöglicht effizientere und wirkungsvollere Entscheidungen sowie Innovation und Problemlösung. BI-Experten sind der Schlüssel zur Erschließung dieser Vorteile für Unternehmen, was einer der Gründe dafür ist, dass sie so gefragt sind! Im weiteren Verlauf dieses Programms erfahren Sie mehr über BI-Überwachung und wie Sie Daten nahezu in Echtzeit in umsetzbare Erkenntnisse für Ihre Stakeholder umwandeln.

Karrierefokus: Kommen wir zur (Netzwerk-)Arbeit

Video 20

Professioneller Beziehungsaufbau

Video 21

Kürzlich haben Sie erfahren, wie wichtig es ist, eine professionelle Online-Präsenz aufrechtzuerhalten und sich mit anderen im Bereich Business Intelligence zu vernetzen. Wie ich bereits erwähnt habe, gibt es viele professionelle Networking-Sites wie LinkedIn, die Ihre Zeit und Ihr Engagement durchaus wert sind. Aber es gibt noch viele andere Möglichkeiten, Ihre berufliche Entwicklung proaktiv voranzutreiben. Viele Organisationen verwenden beispielsweise bei der Einstellung persönliche Empfehlungen. Laut der Society for Human Resource Management sind Mitarbeiterempfehlungen tatsächlich die wichtigste Quelle für externe Einstellungen. Beginnen wir also damit, herauszufinden, wie wir diese Chance durch den Aufbau wertvoller Beziehungen nutzen können. Denn je mehr Menschen Sie beruflich erreichen, desto größer sind Ihre Chancen, empfohlen zu werden. Erstens gibt es viele weitere Websites, die wunderbare Möglichkeiten bieten, andere Leute im Bereich Business Intelligence kennenzulernen. Folgen Sie unbedingt den besten Organisationen und visionären Wirtschaftsführern auf Twitter, Facebook und Instagram. Interagieren Sie mit ihnen und teilen Sie ihre Inhalte. Wenn Ihnen ein Beitrag gefällt, können Sie ihn mit einer Antwort oder einem Dankeschön kommentieren. Sie können auch nach BI-Webinaren mit interessanten Referenten suchen. Viele dieser Veranstaltungen sind kostenlos. Es kann eine weitere faszinierende Möglichkeit sein, zu lernen und gleichzeitig mit Gleichgesinnten, Kollegen und Experten in Kontakt zu treten. Und es gibt auch viele Blogs und Online-Communities, die sich mit BI beschäftigen. Zu den beliebtesten gehören die Website von InformationWeek, der Business Intelligence Blog von Forrester und der Blog von Tableau. Als nächstes haben wir Möglichkeiten zum persönlichen Networking. Am einfachsten finden Sie Veranstaltungen, indem Sie einfach nach Business-Intelligence-Veranstaltungen in Ihrer Nähe suchen. Sie werden wahrscheinlich Meetups mit veröffentlichten Terminen für bevorstehende Treffen, Seminare und Konferenzen finden. Auch gemeinnützige Vereine sind wunderbare Ressourcen und viele bieten kostenlose oder ermäßigte Mitgliedschaften für Studenten an. Okay, jetzt lassen Sie uns etwas Zeit damit verbringen, herauszufinden, wie Mentoring Ihre Karriere und Ihr Leben positiv beeinflussen kann. Wie Sie vielleicht wissen, ist ein Mentor jemand, der Wissen, Fähigkeiten und Erfahrungen weitergibt, um Ihnen dabei zu helfen, sich sowohl beruflich als auch persönlich weiterzuentwickeln. Mentoren sind vertrauenswürdige Berater, Resonanzböden und wertvolle Ressourcen. Der erste Schritt bei der Suche nach einem Mentor besteht darin, herauszufinden, wonach Sie suchen. Denken Sie über alle Herausforderungen nach, denen Sie gegenüberstehen oder die Sie vorhersehen, und wie Sie diese bewältigen können, um beruflich voranzukommen. Überlegen Sie dann, wer Ihnen dabei helfen kann, in diesen Bereichen zu wachsen und Ihre vorhandenen Stärken zu stärken. Teilen Sie diese Dinge offen mit, wenn Sie jemanden offiziell bitten, Ihr Mentor zu sein. Es ist auch hilfreich, gemeinsame Erfahrungen zu notieren. Vielleicht sind Sie in derselben Stadt aufgewachsen. Vielleicht haben Sie beide in derselben Branche gearbeitet. Ihr Mentor muss nicht jemand sein, mit dem Sie derzeit zusammenarbeiten. Viele Menschen finden Mentoren auf LinkedIn, einem Mentoring-Programm eines Verbandes oder bei einer Mentoren-Matching-Veranstaltung. Was mich betrifft, ich habe einen Mentor gefunden, der ein Geschäftspartner von mir war. Ich mochte ihren Führungsstil, die Art und Weise, wie sie mit ihren Stakeholdern interagierte und ihr Team leitete. Nachdem ich eine ganze Weile mit ihr zusammengearbeitet hatte, sagte ich ihr, dass ich sie wirklich bewundere, und fragte, ob sie meine Mentorin sein würde. Ich wusste, dass sie mir helfen konnte, meine Fähigkeiten als Personalmanagerin weiterzuentwickeln. Und sie freute sich darüber. Diese Erfahrung hat mir wirklich gezeigt, wie wertvoll Mentoring ist. Ich habe auch gelernt, dass erfolgreiches Mentoring Aufwand und Zeitaufwand erfordert, egal ob Sie sich darauf vorbereiten, die richtigen Fragen zu stellen, das Feedback zu verinnerlichen oder Folgesitzungen zu planen. Aber es lohnt sich! Seien Sie immer offen für den Kontakt mit neuen Menschen. Man weiß nie, wohin ein einzelnes Gespräch führen wird.

Anita: Mein Weg zur BI

Video 22

Hallo, ich bin Anita, Business Intelligence Analystin bei Google. Mein allererster Job war, dass ich Bibliothekar in der öffentlichen Bibliothek meiner Heimatstadt war, und das war ein Job, bei dem ich jeden Tag mit Menschen redete. Sie hatten Fragen, wo man ein Buch finden kann, ich brauche etwas, das X, Y, Z abdeckt. Und das hat mir wirklich geholfen, zu lernen und herauszufinden, wie ich mit Leuten reden kann, die vielleicht ein Problem haben und nicht wissen, wie sie es lösen sollen. Aber sie suchen dich um Hilfe. Ich denke, das war ein großer Ausgangspunkt für meine Karriere in der BI. Ich bin nicht über einen direkten Weg zur BI gekommen. Ich habe zunächst in der Kreditoren- und Debitorenbuchhaltung gearbeitet und dabei geholfen, diese Prozesse für meine Kunden zu optimieren. Durch die Zusammenarbeit mit ihnen haben Sie viel über den Bedarf an Analysen und dem Bedarf an Verständnis gehört. Ich habe so viele Daten, aber was ist das Wichtigste, das dabei herauskommt? Und als ich das von meinen Kunden hörte, kam ich auf die Frage: „Okay, welche Tools gibt es da draußen?“ Wie kann ich ihnen helfen, diese Erkenntnisse zu finden? Und das führte mich zu einem Job nach dem anderen, bis ich mich schließlich in der Business Intelligence wiederfand. Und ich kann mir kaum vorstellen, in einem anderen Bereich zu arbeiten. Bei jedem weiteren Job, den ich hatte, sei es als Datenanalyst in der Kreditoren- und Debitorenbuchhaltung oder bei der Arbeit in einer Inkassoabteilung. Ich habe gelernt, wie man mithilfe von Daten eine erfolgreiche Geschichte erzählt. Und letzten Endes denke ich, dass BI darauf zurückkommt, welche Trends, Muster und Erkenntnisse wir suchen, um eine fesselnde Geschichte zu erzählen, die es den Menschen ermöglicht, anhand dieser Informationen Entscheidungen zu treffen. Der einzige Ratschlag, den ich Leuten geben kann, die in die BI einsteigen, ist, sich wirklich auf die Fähigkeiten der Mitarbeiter und die Vernetzung zu konzentrieren. Die technischen Fähigkeiten sind wichtig, das Codieren, das SQL, das Verständnis der Datenbanken und der verschiedenen Programme, die wir verwenden, sind wichtig. So erledigen Sie Ihre tägliche Arbeit. Aber was Sie wirklich auszeichnet, ist die Art und Weise, wie Sie mit Ihren Stakeholdern interagieren können. wie Sie in der Lage sind, mit den verschiedenen Teams, mit denen Sie zusammenarbeiten, in Kontakt zu treten und wie Sie all die Dinge, die Sie von ihnen hören, in das endgültige BI-Produkt umwandeln, das ihnen hilft, Erkenntnisse aus ihren Daten zu gewinnen . Ich denke, dass jeder über übertragbare Fähigkeiten verfügt. Bei jedem Job, den Sie hatten, bei jeder Erfahrung, die Sie gemacht haben, haben Sie etwas daraus gelernt. Und wenn Sie sich einen Moment Zeit nehmen und darüber nachdenken, was Sie daraus gelernt haben, vielleicht ist es Ihr erster Job in der High School, vielleicht ist es eine Erfahrung, die Sie an der Universität gemacht haben, wo Sie in einer Gruppe mit schwierigen Teamdynamiken verhandelt haben. Jede einzelne davon ist eine übertragbare Fähigkeit, die Sie in den Bereich Business Intelligence einbringen können.

Ressourcen zur Jobsuche für Business-Intelligence-Experten

Im weiteren Verlauf dieses Kurses werden Sie auf Ressourcen und Best Practices stoßen, die Ihnen dabei helfen, einen Job als Business-Intelligence-Experte zu finden oder Ihre Karriere voranzutreiben. Diese Lektüre stellt Ihnen einige Ressourcen zur Verfügung, die Sie erkunden und mit Lesezeichen versehen können, um sie bei Ihrer Jobsuche zu verwenden.

Websites für die Jobsuche

Es gibt viele Websites für die Jobsuche, und es kann schwierig sein, diejenigen zu finden, die für Ihren speziellen Bereich nützlich sind. Hier sind einige Ressourcen für BI-Experten:

  • Eingebaut: Built In ist eine Online-Community, die speziell dafür entwickelt wurde, Startups und Technologieunternehmen mit potenziellen Mitarbeitern zusammenzubringen. Dies ist eine hervorragende Ressource für die Jobsuche speziell in der Technologiebranche, einschließlich BI. Built In verfügt außerdem über Hubs in einigen US-Städten und Ressourcen für die Suche nach abgelegenen Standorten.

  • Crunchboard: Crunchboard ist eine von TechCrunch gehostete Jobbörse. TechCrunch ist außerdem der Schöpfer von CrunchBase, einer offenen Datenbank mit Informationen über Start-up-Unternehmen in der Technologiebranche. Dies ist eine weitere wertvolle Ressource für Menschen, die speziell auf der Suche nach Jobs im technischen Bereich sind.

  • Würfel: Dice ist ein Karriere-Marktplatz, der sich speziell an Tech-Experten in den USA richtet. Es bietet Einblicke und Informationen für Menschen auf der Jobsuche.

  • DiversityJobs: DiversityJobs ist eine Ressource, die eine Jobbörse, Karriere- und Lebenslaufressourcen sowie Community-Veranstaltungen bereitstellt, die unterrepräsentierten Arbeitssuchenden bei Arbeitgebern helfen sollen, die derzeit Mitarbeiter einstellen. Diese Ressource ist nicht technologiespezifisch und deckt viele Branchen ab.

  • Technologie diversifizieren: Diversify Tech ist ein Newsletter, der unterrepräsentierte Menschen mit Möglichkeiten in der Technologiebranche, einschließlich Jobs, verbinden soll. Ihre Stellenbörse umfasst Positionen von Einstiegs- bis hin zu Führungspositionen bei Unternehmen, die sich für Vielfalt und Inklusion in diesem Bereich einsetzen.

  • LinkedIn: Sie haben LinkedIn als eine großartige Möglichkeit kennengelernt, mit dem Networking zu beginnen und Ihre Online-Präsenz als BI-Experte aufzubauen. LinkedIn verfügt außerdem über eine Jobbörse mit Stellenausschreibungen potenzieller Arbeitgeber. Es gibt Stellenausschreibungen aus allen möglichen Branchen auf der ganzen Welt. Sie müssen sich also etwas Zeit nehmen, um die richtigen Stellenausschreibungen für sich zu finden, aber dies ist ein großartiger Ort, um mit der Jobsuche zu beginnen.

Abhängig von Ihren Bedürfnissen als Arbeitssuchender und Ihren beruflichen Interessen können Sie auch nach spezifischeren Jobbörsen suchen!

Ressourcen für Vorstellungsgespräche und Lebensläufe

Zusätzlich zur Bewerbung auf Stellen sollten Sie sicherstellen, dass Ihre Vorstellungsgesprächsfähigkeiten und Ihr Lebenslauf ausgefeilt und einsatzbereit sind. Wenn Sie das Google Data Analytics Career Certificate abgeschlossen haben, haben Sie bereits viel über diese Dinge gelernt. Fühlen sich freiÜberprüfen Sie diese Ressourcenjederzeit. Oder, wenn Sie neu bei Google Career Certificates sind, schauen Sie sich diese jetzt an! Sie bieten nützliche Interviewstrategien und klare Schritte für die Entwicklung eines erfolgreichen Lebenslaufs!

Die vielen Vorteile von Mentoring

Das Durchsuchen von Jobbörsen und Online-Ressourcen ist nur ein Teil Ihrer Jobsuche; Ebenso wichtig ist es, mit anderen Fachleuten in Ihrem Bereich in Kontakt zu treten, Ihr Netzwerk aufzubauen und der BI-Community beizutreten. Eine gute Möglichkeit, diese Ziele zu erreichen, ist der Aufbau einer Beziehung zu einem Mentor. In dieser Lektüre erfahren Sie mehr über Mentoren, die Vorteile von Mentoring und wie Sie mit potenziellen Mentoren in Kontakt treten können.

Denke über Mentoring nach

Mentoren sind Fachleute, die Wissen, Fähigkeiten und Erfahrungen weitergeben, um Sie bei Ihrem Wachstum und Ihrer Entwicklung zu unterstützen. Diese Menschen können zu verschiedenen Zeitpunkten Ihrer Karriere in vielen verschiedenen Formen auftreten. Sie können Berater, Resonanzkörper, ehrliche Kritiker, Ressourcen oder all diese Dinge sein. Sie können sogar mehrere Mentoren haben, um vielfältigere Perspektiven zu gewinnen!

Unterwegs gibt es einige Dinge zu beachten:

  • Entscheiden Sie, was Sie von einem Mentor erwarten. Denken Sie über Ihre Stärken und Schwächen nach, auf welche Herausforderungen Sie gestoßen sind und wie Sie sich als BI-Experte weiterentwickeln möchten. Teilen Sie diese Ideen mit potenziellen Mentoren, die möglicherweise ähnliche Erfahrungen gemacht haben und Ratschläge zum Weitergeben haben.

  • Betrachten Sie Gemeinsamkeiten. Oft finden Sie tolle Mentoring-Angebote mit Menschen, die Ihre Interessen und Hintergründe teilen. Dazu könnte jemand gehören, der einen ähnlichen beruflichen Weg eingeschlagen hat, oder sogar jemand aus Ihrer Heimatstadt.

  • Respektieren Sie ihre Zeit . Oft sind Mentoren beschäftigt! Stellen Sie sicher, dass die Person, die Sie als Mentor suchen, Zeit hat, Ihr Wachstum zu unterstützen. Es ist auch wichtig, dass Sie sich die Mühe machen, die Beziehung aufrechtzuerhalten und mit ihnen in Kontakt zu bleiben.

Beachten Sie, dass Mentoren keinen direkten Bezug zu BI haben müssen. Es hängt davon ab, worauf Sie sich bei jedem Einzelnen konzentrieren möchten. Mentoren können Freunde von Freunden, erfahrenere Kollegen, ehemalige Kollegen oder sogar Teamkollegen sein. Wenn Sie beispielsweise einen Freund Ihrer Familie finden, der viel Erfahrung in seinem eigenen Nicht-BI-Bereich hat, aber einen ähnlichen Hintergrund wie Sie hat und versteht, was Sie erreichen möchten, kann diese Person ein unschätzbar wertvoller Mentor für Sie werden. Oder Sie treffen bei einem ungezwungenen Arbeitsausflug zufällig jemanden, zu dem Sie sofort eine Beziehung aufbauen. Auch wenn sie nicht im BI-Bereich tätig sind, können sie Sie möglicherweise mit jemandem in ihrem Unternehmen oder Netzwerk verbinden, der im BI-Bereich tätig ist.

Wie man die Beziehung aufbaut

Sobald Sie darüber nachgedacht haben, was Sie von einem Mentor erwarten, und jemanden gefunden haben, der Zeit und Erfahrung zum Teilen hat, müssen Sie diese Beziehung aufbauen. Manchmal entsteht die Verbindung auf natürliche Weise, aber normalerweise müssen Sie sie offiziell bitten, Sie als Mentor zu unterstützen.

Eine gute Möglichkeit, Kontakt aufzunehmen, ist eine freundliche E-Mail oder eine Nachricht auf einer professionellen Networking-Website. Beschreiben Sie Ihre Karriereziele, erklären Sie, wie diese Ziele Ihrer Meinung nach mit ihren eigenen Erfahrungen übereinstimmen, und sprechen Sie über etwas, das Sie beruflich an ihnen bewundern. Dann können Sie als ersten Schritt ein Kaffeegespräch, ein virtuelles Treffen oder einen E-Mail-Austausch vorschlagen.

Melden Sie sich unbedingt bei sich selbst. Es ist wichtig, dass Sie das Gefühl haben, dass es zu Ihnen passt und dass Sie die Betreuung erhalten, die Sie brauchen. Mentor-Mentee-Beziehungen sind gleichberechtigte Partnerschaften. Je ehrlicher Sie ihnen gegenüber sind, desto mehr können sie Ihnen helfen. Und denken Sie daran, ihnen für ihre Zeit und Mühe zu danken!

Wenn Sie mit potenziellen Mentoren in Kontakt treten, werden Sie möglicherweise nervös, weil Sie sie stören oder zu viel Zeit in Anspruch nehmen könnten. Aber auch für Mentoren ist Mentoring sinnvoll. Sie wollen Ihnen oft wirklich zum Erfolg verhelfen und investieren in Ihr Wachstum. Ihr Erfolg macht ihnen Freude! Viele Mentoren erzählen auch gerne von ihren Erfahrungen und teilen ihre Erfolge mit Ihnen. Und Mentoren lernen oft viel von ihren Mentees. Beide Seiten der Mentoring-Beziehung sind sinnvoll!

Ressourcen

Es gibt viele großartige Ressourcen, die Ihnen dabei helfen können, mit potenziellen Mentoren in Kontakt zu treten. Hier sind nur einige davon:

  • Auf Mentoring-Websites wie Score.org, MicroMentor.org oder der Mentorship-App können Sie nach Mentoren mit spezifischen Qualifikationen suchen, die Ihren Anforderungen entsprechen. Anschließend können Sie feste Termine für Treffen oder Telefongespräche vereinbaren.

  • Meetups oder Online-Meetings, die normalerweise in Ihrer Region stattfinden. Geben Sie eine Suche nach „Business-Intelligence-Treffen in meiner Nähe“ ein, um zu sehen, welche Ergebnisse Sie erhalten. In der Regel gibt es einen ausgehängten Zeitplan für bevorstehende Besprechungen, sodass Sie virtuell teilnehmen können. Erfahren Sie mehr überTreffen finden auf der ganzen Welt statt.

  • Plattformen wie LinkedIn und Twitter. Verwenden Sie eine Suche auf einer der beiden Plattformen, um Data Science- oder Datenanalyse-Hashtags zu finden, denen Sie folgen können. Veröffentlichen Sie Ihre eigenen Fragen oder Artikel, um Antworten zu generieren und auf diese Weise Verbindungen aufzubauen.

  • Webinare können mit einer Gruppe von Rednern stattfinden und werden in der Regel aufgezeichnet, um den Zugriff und die Wiedergabe zu erleichtern. Sie können sehen, wer in einem Webinar-Panel anwesend ist, und ihnen auch folgen. Außerdem sind viele Webinare kostenlos. Eine interessante Auswahl ist dieTableau in der Tableau-Webinarreihe. Erfahren Sie, wie Tableau Tableau in seinen internen Abteilungen eingesetzt hat.

  • Konferenzen präsentieren innovative Ideen und Themen. Die Kosten variieren und einige sind teuer. Aber viele bieten Ermäßigungen für Studenten an, und einige Konferenzen mögen esFrauen in der AnalytikZiel ist es, die Zahl der unterrepräsentierten Gruppen in diesem Bereich zu erhöhen.

  • Verbände oder Gesellschaften sammeln Mitglieder, um einen Bereich wie Business Intelligence zu fördern. Viele Mitgliedschaften sind kostenlos. DerBibliothek des Cape Fear Community Collegeverfügt über eine Liste von Berufsverbänden für Analytik, Business Intelligence und Geschäftsanalyse.

  • Benutzergemeinschaften und Gipfeltreffen bieten Veranstaltungen für Benutzer professioneller Tools. Dies ist eine Chance, von den Besten zu lernen. Hast du den … gesehenTableau-Community?

  • Gemeinnützige Organisationen , die den ethischen Einsatz von Data Science fördern und möglicherweise Veranstaltungen zur beruflichen Weiterentwicklung ihrer Mitglieder anbieten. DerData Science Associationist ein Beispiel.

Einen Mentor zu finden und mit ihm in Kontakt zu treten, ist eine großartige Möglichkeit, Ihr Netzwerk aufzubauen, Karrierechancen zu nutzen und von jemandem zu lernen, der bereits einige der Herausforderungen erlebt hat, denen Sie in Ihrer Karriere gegenüberstehen. Unabhängig davon, ob es sich bei Ihrem Mentor um einen leitenden Kollegen, um jemanden, mit dem Sie sich auf LinkedIn vernetzen, oder um jemanden von zu Hause mit einem ähnlichen Karriereweg handelt, kann Mentoring Ihnen als BI-Experte große Vorteile bringen.

Jerrod: Der unglaubliche Wert von Mentoring

Video 23

Mein Name ist Jerrod und ich bin Hauptleiter im Analyse- und Entscheidungsunterstützungsteam von YouTube. Und unser Team konzentriert sich auf die Entwicklung von Business Intelligence und Analysen für die YouTube-Unternehmensorganisation. Mentoring war ein großer Teil meiner beruflichen Weiterentwicklung. Ich hatte im Laufe meiner Karriere das Glück, von vielen Mentoren sowohl bei Google als auch außerhalb von Google betreut zu werden, einige davon stammten aus der Schule, andere waren einfach Zufall. Aber jeder einzelne von ihnen hat mir etwas gegeben, das entweder ein Motivationsfaktor war oder mich ermutigte, mehr an mich selbst zu glauben, oder einfach nur da zu sein, um mir zuzuhören, wenn ich darüber rede, dass etwas nicht funktioniert oder was auch immer es sein könnte. Suchen Sie nach Gruppen, die sich auf die Bereiche konzentrieren, die Sie interessieren. Wir denken an BI und Analytics. Es gibt so viele Gruppen von Leuten, die Business-Intelligence-Experten sind, und es gibt Nischengruppen, die sich auf Datenzeichen oder prädiktive Analysen konzentrieren. Ich habe auch gerade Kontakt zu Leuten aufgenommen, sei es per E-Mail oder durch Vorstellungen von anderen Leuten, die ich kenne, LinkedIn. Und normalerweise neige ich dazu, nach Leuten zu suchen, die etwas tun, an dem ich interessiert bin, aber über Fähigkeiten verfügen, die ich nicht habe. Und ich melde mich einfach und sage: „Hey, ich würde gerne ein Gespräch über die XYZ-Sache führen und hören, was Sie darüber denken.“ Ich habe tatsächlich festgestellt, dass LinkedIn ein wirklich leistungsstarkes Tool ist. Es erfordert Arbeit, ist aber ein sehr einfacher Einstiegspunkt für die Vernetzung. Und wenn ich von Networking spreche, meine ich nicht nur Smalltalk, sondern vielmehr, dass man sich tatsächlich an jemanden wendet, in der Hoffnung, dass er jemand ist, der wirklich angesprochen werden möchte. Und seien Sie sich wirklich bewusst, was Sie von Menschen lernen möchten, die etwas getan haben, auf das Sie wetten möchten. Denn höchstwahrscheinlich gibt es nicht so viele Menschen, die das Gleiche tun. Aber je mehr Sie Ihre Fähigkeiten, Ihre Zielstrebigkeit und jedes andere Adjektiv, das Sie verwenden können, zeigen und unter Beweis stellen, desto mehr Leute werden anfangen, auf Sie zu wetten, und desto mehr Chancen ergeben sich daraus.
Mein Name ist Jerrod und ich bin Hauptleiter im Analyse- und Entscheidungsunterstützungsteam bei YouTube. Und unser Team konzentriert sich auf die Entwicklung von Business Intelligence und Analysen für die YouTube-Unternehmensorganisation. Mentoring war ein großer Teil meiner beruflichen Weiterentwicklung. Ich hatte im Laufe meiner Karriere das Glück, von vielen Mentoren sowohl bei Google als auch außerhalb von Google betreut zu werden, einige davon stammten aus der Schule, andere waren einfach Zufall. Aber jeder singt: Zur Auswahl hinzugefügt.

 

Einpacken

Video 24

Nun, wir sind am Ende eines weiteren Abschnitts angelangt. Sie erfahren, wie Sie Ihre Online-Präsenz verbessern und die Networking- und Mentoring-Möglichkeiten maximieren. Sie haben auch die verschiedenen BI-Stakeholder und einige bewährte Methoden für eine effektive Zusammenarbeit mit ihnen untersucht. Sie haben herausgefunden, wie eine schnelle Überwachung es Benutzern ermöglicht, wichtige Kennzahlen zu sammeln und darüber zu berichten und diese dann anzuwenden, damit Unternehmen bessere Entscheidungen treffen können. Darüber hinaus haben Sie erfahren, wie Kennzahlen KPIs unterstützen, die wiederum Geschäftsziele unterstützen, und wir betonen die Kraft, die eine BI-Karriere mit sich bringt, und warum es so wichtig ist, jederzeit auf Fairness zu achten. Ihre Kenntnisse und Fähigkeiten im Bereich Business Intelligence entwickeln sich weiter und wachsen. Ich freue mich sehr, Sie auf dieser spannenden Reise zu begleiten. Als nächstes steht Ihnen eine weitere benotete Prüfung bevor. Schauen Sie sich zur Vorbereitung unbedingt die Lektüre an, in der alle neuen Glossarbegriffe aufgeführt sind, die Sie gelernt haben. Und wie immer können Sie sich jederzeit Zeit nehmen, um Videos, Lesungen und Ihre eigenen Notizen anzusehen, um sich über den gesamten Inhalt zu informieren. Herzlichen Glückwunsch zu all Ihren Fortschritten. Wir werden uns in Kürze wieder vernetzen.

Glossarbegriffe aus Modul 2

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholder in die Lage zu versetzen, wirkungsvolle Geschäftsentscheidungen zu treffen

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

Begriffe und ihre Definitionen aus vorherigen Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

UND

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

ICH

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

 

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvin

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats über Stakeholder

Video 25

Als Datenanalyst müssen Sie sich auf viele verschiedene Dinge konzentrieren, und die Erwartungen Ihrer Stakeholder sind eine der wichtigsten. Wir werden darüber sprechen, warum Stakeholder-Erwartungen für Ihre Arbeit so wichtig sind, und uns einige Beispiele für Stakeholder-Bedürfnisse bei einem Projekt ansehen. Sie haben inzwischen gehört, dass ich den Begriff Stakeholder oft verwende. Lassen Sie uns noch einmal darüber nachdenken, was ein Stakeholder ist. Stakeholder sind Menschen, die Zeit, Interesse und Ressourcen in die Projekte investiert haben, an denen Sie als Datenanalyst arbeiten werden. Mit anderen Worten: Sie sind an dem beteiligt, was Sie tun. Es besteht eine gute Chance, dass sie Ihre Arbeit benötigen, um ihre eigenen Bedürfnisse zu erfüllen. Deshalb ist es so wichtig, sicherzustellen, dass Ihre Arbeit auf ihre Bedürfnisse abgestimmt ist und warum Sie effektiv mit allen Stakeholdern in Ihrem Team kommunizieren müssen. Ihre Stakeholder werden Dinge wie das Projektziel besprechen wollen, was Sie zum Erreichen dieses Ziels benötigen und welche Herausforderungen oder Bedenken Sie haben. Das ist eine gute Sache. Diese Gespräche tragen dazu bei, Vertrauen in Ihre Arbeit aufzubauen. Hier ist ein Beispiel für ein Projekt mit mehreren Teammitgliedern. Lassen Sie uns untersuchen, was sie auf den verschiedenen Ebenen möglicherweise von Ihnen benötigen, um die Projektschule zu erreichen. Stellen Sie sich vor, Sie wären ein Datenanalyst, der in der Personalabteilung eines Unternehmens arbeitet. Das Unternehmen verzeichnete einen Anstieg seiner Fluktuationsrate, also der Rate, mit der Mitarbeiter das Unternehmen verlassen. Die Personalabteilung des Unternehmens möchte wissen, warum das so ist, und möchte, dass Sie ihr dabei helfen, mögliche Lösungen zu finden. Der Vizepräsident der Personalabteilung dieses Unternehmens ist daran interessiert, gemeinsame Muster bei Mitarbeitern zu identifizieren, die kündigen, und herauszufinden, ob ein Zusammenhang mit der Produktivität und dem Engagement der Mitarbeiter besteht. Als Datenanalyst ist es Ihre Aufgabe, sich auf die Frage der Personalabteilung zu konzentrieren und dabei zu helfen, diese zu finden Antwort. Aber der V. P. ist möglicherweise zu beschäftigt, um alltägliche Aufgaben zu bewältigen, oder ist möglicherweise nicht Ihr direkter Ansprechpartner für diese Aufgabe. Sie werden den Projektmanager regelmäßiger informieren. Projektmanager sind für die Planung und Durchführung des Projekts verantwortlich. Zu den Aufgaben des Projektmanagers gehört es, das Projekt auf Kurs zu halten und den Fortschritt des gesamten Teams zu überwachen. In den meisten Fällen müssen Sie sie regelmäßig auf dem Laufenden halten, ihnen mitteilen, was Sie für den Erfolg benötigen, und ihnen mitteilen, ob unterwegs Probleme auftreten. Möglicherweise arbeiten Sie auch mit anderen Teammitgliedern zusammen. Personaladministratoren müssen beispielsweise die von Ihnen verwendeten Kennzahlen kennen, damit sie Möglichkeiten zur effektiven Erfassung von Mitarbeiterdaten entwickeln können. Möglicherweise arbeiten Sie sogar mit anderen Datenanalysten zusammen, die verschiedene Aspekte der Daten abdecken. Es ist so wichtig, dass Sie wissen, wer die Stakeholder und anderen Teammitglieder in einem Projekt sind, damit Sie effektiv mit ihnen kommunizieren und ihnen das geben können, was sie brauchen, um in ihren eigenen Rollen im Projekt voranzukommen. Sie alle arbeiten zusammen, um dem Unternehmen wichtige Einblicke in dieses Problem zu verschaffen. Zurück zu unserem Beispiel: Bei der Analyse von Unternehmensdaten stellen Sie nach den ersten 13 Monaten im Unternehmen einen Rückgang des Engagements und der Leistung der Mitarbeiter fest. Das könnte dazu führen, dass sich die Mitarbeiter demotiviert oder von ihrer Arbeit abgekoppelt fühlten und dann oft ein paar Monate später kündigten. Das teilt auch ein anderer Analyst, der sich auf Einstellungsdaten konzentriert. Das Unternehmen verzeichnete vor etwa 18 Monaten einen starken Anstieg bei den Einstellungen. Sie kommunizieren diese Informationen mit allen Ihren Teammitgliedern und Stakeholdern und diese geben Feedback dazu, wie Sie diese Informationen mit Ihrem Vizepräsidenten teilen können. Am Ende beschließt Ihr Vizepräsident, einen ausführlichen Manager-Check-in bei Mitarbeitern durchzuführen, die kurz vor dem Erreichen ihrer 12-Monats-Grenze im Unternehmen stehen, um Möglichkeiten zur beruflichen Weiterentwicklung zu identifizieren, was die Mitarbeiterfluktuation ab der 13-Monats-Grenze verringert. Dies ist nur ein Beispiel dafür, wie Sie Bedürfnisse und Erwartungen in Ihrem Team in Einklang bringen können. Sie werden feststellen, dass es bei so ziemlich jedem Projekt, an dem Sie als Datenanalyst arbeiten, unterschiedliche Personen in Ihrem Team gibt. Vom HR-Vizepräsidenten bis hin zu Ihren Datenanalystenkollegen benötigen Sie Ihre gesamte Konzentration und Kommunikation, um das Projekt zum Erfolg zu führen und sich dabei auf die Stakeholder zu konzentrieren. Expect wird Ihnen helfen, das Ziel eines Projekts zu verstehen, effektiver mit Ihrem Team zu kommunizieren und Vertrauen in Ihre Arbeit aufzubauen. Als nächstes besprechen wir, wie Sie herausfinden, wo Sie in Ihr Team passen und wie Sie dabei helfen können, ein Projekt voranzubringen Konzentration und Entschlossenheit

Lesen Sie den Inhalt des Google Data Analytics-Zertifikats zum Stellen effektiver Fragen

Video 26

Nachdem wir nun über sechs grundlegende Problemtypen gesprochen haben, ist es an der Zeit, mit deren Lösung zu beginnen. Um dies zu erreichen, stellen Datenanalysten zunächst die richtigen Fragen. In diesem Video lernen wir, wie man effektive Fragen stellt, die zu wichtigen Erkenntnissen führen, die Sie zur Lösung aller Arten von Problemen nutzen können. Als Datenanalyst stelle ich ständig Fragen. Es ist ein großer Teil der Arbeit. Wenn jemand mich bittet, an einem Projekt zu arbeiten, stelle ich Fragen, um sicherzustellen, dass wir hinsichtlich des Plans und der Ziele einer Meinung sind. Wenn ich ein Ergebnis erhalte, stelle ich es in Frage. Zeigen mir die Daten oberflächlich etwas? Gibt es irgendwo einen Konflikt, der gelöst werden muss? Je mehr Fragen Sie stellen, desto mehr erfahren Sie über Ihre Daten und desto aussagekräftiger werden Ihre Erkenntnisse am Ende des Tages sein. Einige Fragen sind effektiver als andere. Nehmen wir an, Sie essen mit einem Freund zu Mittag und er sagt: „Das sind die besten Sandwiches aller Zeiten, nicht wahr?“ Nun, diese Frage gibt Ihnen nicht wirklich die Möglichkeit, Ihre eigene Meinung zu äußern, insbesondere wenn Sie anderer Meinung sind und das Sandwich nicht besonders genossen hat. Dies wird als Leitfrage bezeichnet, da sie dazu führt, dass Sie auf eine bestimmte Art und Weise antworten. Oder vielleicht arbeiten Sie an einem Projekt und beschließen, ein Familienmitglied zu interviewen. Angenommen, Sie fragen Ihren Onkel: „Hat es Ihnen Spaß gemacht, in Malaysia aufzuwachsen?“ Er antwortet vielleicht mit „Ja“, aber Sie haben nicht viel über seine Erfahrungen dort erfahren. Ihre Frage wurde geschlossen. Das bedeutet, dass die Frage mit Ja oder Nein beantwortet werden kann. Solche Fragen führen selten zu wertvollen Erkenntnissen. Was ist, wenn Sie jemand fragt: „Bevorzugen Sie Schokolade oder Vanille?“ Worüber reden sie konkret? Eis, Pudding, Kaffeearoma oder etwas anderes? Was ist, wenn Sie Schokoladeneis mögen, aber Vanille im Kaffee? Was ist, wenn Ihnen keiner der beiden Geschmacksrichtungen gefällt? Das ist das Problem mit dieser Frage. Es ist zu vage und es mangelt an Kontext. Für Ihre zukünftige Karriere als Datenanalyst ist es wichtig, den Unterschied zwischen effektiven und ineffektiven Fragen zu kennen. Schließlich beginnt der Prozess des Datenanalysten mit der Ask-Phase. Deshalb ist es wichtig, dass wir die richtigen Fragen stellen. Effektive Fragen folgen der SMART-Methodik. Das bedeutet, dass sie spezifisch, messbar, handlungsorientiert, relevant und zeitgebunden sind. Lassen Sie uns das aufschlüsseln. Spezifische Fragen sind einfach, aussagekräftig und konzentrieren sich auf ein einzelnes Thema oder einige eng verwandte Ideen. Dies hilft uns, Informationen zu sammeln, die für unsere Untersuchung relevant sind. Wenn eine Frage zu allgemein ist, versuchen Sie, sie einzugrenzen, indem Sie sich auf nur ein Element konzentrieren. Anstatt beispielsweise eine geschlossene Frage zu stellen wie: Bekommen Kinder heutzutage genug körperliche Aktivitäten? Fragen Sie: Wie viel Prozent der Kinder erreichen an mindestens fünf Tagen in der Woche die empfohlenen 60 Minuten körperlicher Aktivität? Diese Frage ist viel spezifischer und kann Ihnen nützlichere Informationen liefern. Lassen Sie uns über messbare Fragen sprechen. Messbare Fragestellungen können quantifiziert und bewertet werden. Ein Beispiel für eine nicht messbare Frage wäre: Warum ging unser aktuelles Video viral? Stattdessen könnten Sie fragen: Wie oft wurde unser Video in der ersten Woche, in der es veröffentlicht wurde, auf sozialen Kanälen geteilt? Diese Frage ist messbar, weil sie es uns ermöglicht, die Anteile zu zählen und zu einer konkreten Zahl zu gelangen. Jetzt sind wir bei den handlungsorientierten Fragen angelangt. Handlungsorientierte Fragen fördern Veränderungen. Sie erinnern sich vielleicht, dass es bei der Problemlösung darum geht, den aktuellen Zustand zu sehen und herauszufinden, wie man ihn in den idealen zukünftigen Zustand umwandeln kann. Nun, handlungsorientierte Fragen helfen Ihnen dabei, dorthin zu gelangen. Anstatt zu fragen: „Wie können wir Kunden dazu bringen, unsere Produktverpackungen zu recyceln“, könnten Sie fragen: „Welche Designmerkmale erleichtern das Recycling unserer Verpackungen?“ Dadurch erhalten Sie Antworten, auf die Sie reagieren können. In Ordnung. Kommen wir zu relevanten Fragen. Relevante Fragen sind wichtig, wichtig und haben Bedeutung für das Problem, das Sie lösen möchten. Nehmen wir an, Sie arbeiten an einem Problem im Zusammenhang mit einer bedrohten Froschart und fragen: „Warum ist es wichtig, dass der Laubfrosch von Pine Barrens zu verschwinden begann?“ Das ist eine irrelevante Frage, denn die Antwort wird uns nicht dabei helfen, einen Weg zu finden, das Aussterben dieser Frösche zu verhindern. Eine relevantere Frage wäre, welche Umweltfaktoren sich zwischen 1983 und 2004 in Durham, North Carolina, verändert haben und dazu führen könnten, dass die Pine Barrens-Laubfrösche aus der Sandhills-Region verschwinden. Diese Frage würde uns Antworten geben, die wir zur Lösung unseres Problems nutzen können. Das ist auch ein gutes Beispiel für unseren letzten Punkt, die zeitgebundenen Fragen. Zeitgebundene Fragen geben die zu untersuchende Zeit an. Der Zeitraum, den wir untersuchen möchten, ist 1983-2004. Dies schränkt die Möglichkeiten ein und ermöglicht es dem Datenanalysten, sich auf relevante Daten zu konzentrieren. Da Sie nun ein allgemeines Verständnis für kluge Fragen haben, gibt es noch etwas anderes, das Sie bei der Formulierung von Fragen im Hinterkopf behalten sollten: Fairness. Wir haben das Thema Fairness bereits angesprochen, aber zur Erinnerung: Fairness bedeutet, sicherzustellen, dass Ihre Fragen keine Voreingenommenheit hervorrufen oder verstärken. Um darüber zu sprechen, lassen Sie uns kehren wir noch einmal zu unserem Sandwich-Beispiel zurück. Da hatten wir eine unfaire Frage, weil sie so formuliert war, dass sie Sie zu einer bestimmten Antwort führen sollte. Dies machte es schwierig, ehrlich zu antworten, wenn Sie mit der Qualität des Sandwichs nicht einverstanden waren. Ein weiteres häufiges Beispiel für eine unfaire Frage ist eine Frage, bei der Annahmen getroffen werden. Nehmen wir zum Beispiel an, dass eine Zufriedenheitsumfrage unter Besuchern eines Wissenschaftsmuseums durchgeführt wird. Wenn Sie in der Umfrage gefragt werden: Was gefällt Ihnen an unseren Ausstellungen am meisten? Dies setzt voraus, dass der Kunde die Exponate liebt, was wahr sein kann oder auch nicht. Fairness bedeutet auch, Fragen zu formulieren, die für alle sinnvoll sind. Es ist wichtig, dass die Fragen klar und einfach formuliert sind, damit jeder sie leicht verstehen kann. Auch unfaire Fragen können Ihre Arbeit als Datenanalyst erschweren. Sie führen zu unzuverlässigem Feedback und verpassten Gelegenheiten, wirklich wertvolle Erkenntnisse zu gewinnen. Sie haben viel darüber gelernt, wie Sie effektive Fragen formulieren, wie Sie das SMART-Framework beim Erstellen Ihrer Fragen verwenden und wie Sie sicherstellen, dass Ihre Fragen fair und objektiv sind. Im weiteren Verlauf werden Sie verschiedene Arten von Daten erkunden und erfahren, wie diese zur Steuerung von Geschäftsentscheidungen verwendet werden. Außerdem erfahren Sie mehr über Visualisierungen und wie Metriken oder Kennzahlen zum Erfolg beitragen können. Das wird klasse.

 

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats auf Voreingenommenheit

Video 27

Beginnen wir mit einer Reise in die Vergangenheit. Na ja, in unseren Gedanken zumindest meine Echtzeitmaschinen im Laden. Stellen Sie sich vor, Sie sind wieder in der Mittelschule und haben ein Projekt für die Wissenschaftsmesse eingereicht. Sie haben wochenlang hart daran gearbeitet, jedes Element zu perfektionieren, und sie sind dabei, die Gewinner bekannt zu geben. Du schließt deine Augen, atmest tief ein und hörst, wie sie deinen Namen für den zweiten Platz rufen, Mist. Du wolltest unbedingt die Trophäe für den ersten Platz haben. Aber hey, Sie werden das Band als Anerkennung erhalten, wenn Sie am nächsten Tag erfahren, dass der Richter der Onkel des Gewinners war. Wie ist das fair? Kann man von ihm wirklich erwarten, dass er fair einen Gewinner auswählt, wenn sein eigenes Familienmitglied einer der Teilnehmer ist? Wahrscheinlich ist er voreingenommen. Nun, vielleicht hat seine Nichte den Sieg verdient, vielleicht auch nicht. Aber der Punkt ist, dass es in diesem Szenario sehr einfach ist, Voreingenommenheit zu begründen. Das ist ein supereinfaches Beispiel. Aber die Wahrheit ist, dass wir im Alltag ständig auf Voreingenommenheit stoßen. Unser Gehirn ist biologisch darauf ausgelegt, das Denken zu rationalisieren und schnelle Urteile zu fällen. Voreingenommenheit hat sich zu einer Präferenz zugunsten oder gegen eine bestimmte Gruppe von Personen oder Dingen entwickelt und kann bewusst oder unbewusst sein. Die gute Nachricht ist: Sobald wir wissen und akzeptieren, dass wir voreingenommen sind, können wir beginnen, unsere eigenen Denkmuster zu erkennen und zu lernen, damit umzugehen. Es ist wichtig zu wissen, dass Voreingenommenheit auch in der Welt der Daten Einzug halten kann. Datenverzerrung ist eine Art Lüge, die Ergebnisse systematisch in eine bestimmte Richtung verzerrt. Möglicherweise hatten die Fragen einer Umfrage eine bestimmte Ausrichtung, die die Antworten beeinflusste. Oder vielleicht war die Stichprobengruppe nicht wirklich repräsentativ für die untersuchte Bevölkerung. Wenn Sie beispielsweise das Durchschnittsalter der US-amerikanischen Patientenpopulation mit Krankenversicherung heranziehen, würden Sie nicht nur eine Stichprobe von Medicare-Patienten ab 65 Jahren verwenden. Eine Verzerrung kann auch auftreten, wenn es einer Stichprobengruppe an Inklusivität mangelt. Beispielsweise werden Menschen mit Behinderungen in der Mainstream-Gesundheitsforschung tendenziell unterschätzt, unterrepräsentiert oder ausgeschlossen. Die Art und Weise, wie Sie Daten sammeln, kann uns auch einen Datensatz verschaffen. Wenn Sie den Leuten beispielsweise nur kurze Zeit für die Beantwortung von Fragen geben, werden die Antworten eilig, wenn wir es eilig haben. Wir machen mehr Fehler, die die Qualität unserer Daten beeinträchtigen und zu voreingenommenen Ergebnissen führen können. Als Datenanalyst müssen Sie über Voreingenommenheit und Fairness nachdenken. Von dem Moment an, in dem Sie mit der Datenerhebung beginnen, bis zu dem Zeitpunkt, an dem Sie Ihre Schlussfolgerungen präsentieren. Schließlich können diese Schlussfolgerungen schwerwiegende Folgen haben. Denk darüber nach. Es ist anerkannt, dass an klinischen Studien zur Herzgesundheit tendenziell viel mehr Männer als Frauen beteiligt sind. Dies hat dazu geführt, dass Frauen die Symptome nicht erkennen und ihre Herzerkrankungen letztendlich unentdeckt und unbehandelt bleiben. Das ist nur eine Möglichkeit, wie Voreingenommenheit sehr reale Auswirkungen haben kann. Auch wenn wir bei der Erkennung von Voreingenommenheit einen langen Weg zurückgelegt haben, führt dies immer noch dazu, dass Sie bei diesem Wissenschaftswettbewerb gegen die Nichte des Richters verlieren, und es beeinflusst immer noch Geschäftsentscheidungen, Entscheidungen im Gesundheitswesen, den Zugang zu staatlichen Maßnahmen und vieles mehr. Wir haben also noch Arbeit zu tun, bevor es losgeht. Wir zeigen Ihnen, wie Sie Verzerrungen in den Daten selbst erkennen und einige Szenarien untersuchen, in denen Sie möglicherweise tatsächlich davon profitieren.

Sehen Sie sich den Inhalt des Google Data Analytics-Zertifikats zum Erstellen eines Lebenslaufs an

Video 28

 

Willkommen zu Modul 3

Video 29

Hallo. Sie sind dabei, mit einem weiteren Abschnitt des Google Business Intelligence-Zertifikats zu beginnen. Das ist wunderbar. Du nutzt den Tag wirklich aus. „Nutze den Tag“ oder „Carpe Diem“ ist ein berühmter lateinischer Ausspruch des römischen Dichters Horaz. Damit drückte er die Idee aus, dass wir das Leben genießen sollten, während wir vielleicht sogar ein paar Risiken eingehen können, um das Leben in vollen Zügen zu genießen. In jüngerer Zeit ist das Akronym YOLO (for you only live Once) eine gängige Ausdrucksweise für dieselbe Idee. Interessanterweise sollte der ursprüngliche Satz „Man lebt nur einmal“ eine ganz andere Botschaft vermitteln. Die frühesten Beispiele solcher Zitate in der englischen Literatur waren eigentlich eher eine Warnung. Ihre Konnotation war, dass das Leben kostbar ist, deshalb sollten wir ein gutes Urteilsvermögen an den Tag legen, vorsichtig sein und uns vor dem Risiko schützen, Schaden zu nehmen. Dies ist ein großartiges Beispiel dafür, wie ein bekanntes Konzept aus dem Kontext gerissen wird. Aber auch viele andere Dinge können aus dem Zusammenhang gerissen werden, darunter auch Daten. Zur Erinnerung: Kontext ist der Zustand, in dem etwas existiert oder geschieht. Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, haben Sie viel über den Kontext gelernt und erfahren, wie er dabei hilft, Rohdaten in aussagekräftige Informationen umzuwandeln. Wenn Sie diese Lektionen noch einmal durchgehen möchten, tun Sie dies bitte, bevor Sie mit dem nächsten Video fortfahren. Für BI-Experten ist es sehr wichtig, unsere Daten zu kontextualisieren. Dies gibt ihm eine wichtige Perspektive und verringert die Wahrscheinlichkeit, dass es voreingenommen oder unfair ist. In den nächsten Lektionen werden wir den Kontext aus einem BI-Kontext erneut untersuchen. Dann kommen wir zu einigen anderen Dateneinschränkungen, einschließlich der ständigen Änderung und der Möglichkeit, das Gesamtbild zeitnah zu sehen. Ich werde auch einige Strategien vorstellen, mit denen BI-Experten diese Einschränkungen vorhersehen und überwinden können. Und wir erfahren mehr über Metriken und wie sie sich auf den Kontext beziehen. Es liegt noch viel vor uns, also nutzen wir den Tag und setzen unser Business-Intelligence-Abenteuer fort.

Untersuchen Sie noch einmal die Bedeutung des Kontexts

Video 30

Versuchen wir ein kleines Experiment. Überlegen Sie, was passieren könnte, wenn Sie dieses Liniendiagramm drei verschiedenen Personen zeigen würden. Sie würden höchstwahrscheinlich drei verschiedene Interpretationen erhalten. Selbst wenn man wüsste, dass Liniendiagramme dazu dienen, Veränderungen im Zeitverlauf darzustellen, könnte der eine annehmen, dass die x-Achse ein paar Tage darstellt, während ein anderer annehmen könnte, dass sie einen Zeitraum von vielen Jahren darstellt. Vielleicht würde jemand annehmen, dass die fünf farbigen Linien entlang der Y-Achse die Verkäufe verschiedener Produkte darstellen. Ein anderer könnte annehmen, dass sie das Kaufverhalten verschiedener Kundentypen widerspiegeln. Der Punkt ist, dass ein Liniendiagramm mit einem Titel, einer Legende für die X-Achse und der Y-Achse und jedem der darin enthaltenen Datenwerte eine viel effektivere Datenvisualisierung darstellt. Wenn Sie die Bedeutung der einzelnen Elemente klar angeben, indem Sie ihnen einen Kontext geben, ist dieses Liniendiagramm plötzlich für andere leicht verständlich. Kontexte tragen dazu bei, das Risiko von Fehlinterpretationen zu eliminieren. Dies spart Ihren Stakeholdern Zeit und stellt sicher, dass sie über genaue Informationen verfügen, um datengesteuerte Geschäftsentscheidungen zu treffen. Wie Sie wahrscheinlich wissen, verwandelt der Kontext in der Datenanalyse Rohdaten in aussagekräftige Informationen. Wenn Sie kontextualisieren, relativieren Sie etwas. Dazu gehört die Berücksichtigung seines Ursprungs und anderer relevanter Hintergrundinformationen, der Motivation dahinter, des größeren Kontexts, in dem es existiert, beispielsweise eines bestimmten Zeitraums, und der möglichen Auswirkungen. Die Kontextualisierung verleiht etwas eine größere Bedeutung, um den Menschen zu helfen, es vollständiger zu verstehen. Dies fördert auch die Fairness und verringert das Risiko von Vorurteilen, wenn Ihre Benutzer nützliche Erkenntnisse aus den von Ihnen präsentierten Daten gewinnen möchten, was mich zum Kontext einer BI-Umgebung bringt. In der BI gibt es einen weiteren Aspekt des Kontexts, der Fachleuten sehr am Herzen liegt, nämlich die Kontextualisierung der Tools, die wir für unsere Benutzer erstellen. Eine wichtige Vorgehensweise zur Förderung des Kontexts besteht darin, die gemeinsam genutzten Daten an einem zentralen Ort abzulegen. Normalerweise handelt es sich hierbei um ein gut gestaltetes Dashboard. Dann besteht der zweite Schritt darin, sicherzustellen, dass es eine gemeinsame Methode gibt, mit der jeder mit diesem Dashboard interagieren kann. Es ist wichtig, dass Stakeholder die von Ihnen erstellten Dashboards leicht verstehen, darauf zugreifen und verwenden können. Auf diese Weise müssen Menschen nicht woanders hingehen oder den Kontext wechseln, um die benötigten Informationen zu finden. Dadurch können alle Benutzer ihre Arbeit wesentlich effektiver erledigen. Angenommen, das Finanzteam eines Unternehmens benötigt ein Dashboard, um die Kosten im gesamten Unternehmen zu analysieren. Sie entwerfen also ein Dashboard, das wichtige Erkenntnisse über die jeweiligen Ausgaben jeder Abteilung vermittelt. Was aber, wenn sich herausstellt, dass die Kosten der Betriebsabteilung ungewöhnlich hoch sind? Das Finanzteam möchte einen detaillierten Einblick in die Ausgaben dieser Abteilung erhalten, um die Grundursachen für den Kostenanstieg herauszufinden. Es wäre wichtig, Ihr Dashboard zu iterieren, damit es auch unterstützende Informationen zu jeder Abteilung enthält. Ein weiterer Teil des Aufbaus einer effektiven Lösung besteht darin, den funktionsübergreifenden Beziehungen, die in Ihrem Unternehmen bestehen, Priorität einzuräumen. Sie müssen überlegen, wie Ihre BI-Arbeit mit den allgemeinen Geschäftszielen übereinstimmt und wie sie von Ihren Kollegen genutzt wird. Wenn Ihr neues BI-Tool beispielsweise fünf verschiedene Metriken überwacht und von zehn verschiedenen Beteiligten verwendet wird, ist es wichtig zu berücksichtigen, wie jeder Benutzer auf die Daten zugreift und sie interpretiert. Um ein effektives Dashboard zu erstellen, muss man zunächst verstehen, wie jeder einzelne Stakeholder es tatsächlich nutzen wird. Indem Sie sich die Zeit nehmen, darüber nachzudenken, stellen Sie sicher, dass Sie ein robustes Dashboard erstellen und nicht viele weniger effektive. Da Sie außerdem ein einziges zugängliches gemeinsames Dashboard erstellt haben, ermöglicht dies eine hervorragende Zusammenarbeit zwischen Benutzern. Beispielsweise ist das Mitglied des Finanzteams möglicherweise bestürzt über eine scheinbar kleine Wachstumszahl von fünf Prozent im Vergleich zum Vorjahr, aber der Verkäufer kann diese Zahl in einen Zusammenhang bringen, indem er darauf hinweist, dass fünf Prozent tatsächlich ein gutes Ergebnis und angesichts dessen höher als erwartet sind das gesamte Marktsegment verzeichnete einen Rückgang um 10 Prozent. Der Verkäufer kann diesen spezifischen Marktkontext bereitstellen, während die Finanzanalysten wahrscheinlich nur allgemeine Branchentrends kennen. Eine einzige Dashboard-Ausgabe kann zu unzähligen aufschlussreichen Gesprächen führen. Durch die kontextbezogene Darstellung der Ergebnisse können Sie bestätigen, dass Sie die richtigen Daten für die Stakeholder verwenden. Sie wissen außerdem, dass es im richtigen Format vorliegt, dass es effektiv genutzt und weitergegeben werden kann und dass die Ergebnisse sinnvoll sind. Dies steigert das Verständnis der Menschen und bringt dadurch letztlich auch geschäftliche Vorteile mit sich.

Warum der Kontext entscheidend ist

In dieser Lektion haben Sie etwas über die Bedeutung des Kontexts in der Business Intelligence gelernt. Zur Erinnerung: Kontext ist der Zustand, in dem etwas existiert oder geschieht. In einem früheren Video haben Sie beispielsweise diese Datenvisualisierung betrachtet:

Liniendiagramm mit fünf Linien und ohne Beschriftung

Dieses Liniendiagramm zeigt lediglich fünf verschiedene Linien in einem Raster, wir haben jedoch keine Informationen darüber, was die Linien des Diagramms darstellen, wie sie gemessen werden oder welche Bedeutung diese Visualisierung hat. Das liegt daran, dass dieser Visualisierung der Kontext fehlt. Schauen Sie sich die fertige Version dieser Visualisierung an:

Liniendiagramm mit fünf Linien. Der Titel lautet „Aktive Mitgliedschaftstypen 2016–2021“. Die X- und Y-Achse und -Linien wurden beschriftet.

Diese Visualisierung enthält alle Informationen, die zu ihrer Interpretation erforderlich sind. Es hat einen klaren Titel, eine Legende, die angibt, was die Linien im Diagramm bedeuten, eine Skala entlang der y-Achse und den Datumsbereich, der entlang der x-Achse dargestellt wird. Die Kontextualisierung von Daten trägt dazu bei, dass sie für Ihre Stakeholder aussagekräftiger und nützlicher werden und verhindert Fehlinterpretationen der Daten, die sich auf ihre Entscheidungsfindung auswirken könnten. Und das gilt nicht nur für die Visualisierung! In dieser Lektüre untersuchen Sie einen Geschäftsfall, bei dem der Kontext der Schlüssel zum Erfolg eines BI-Projekts war.

Das Szenario

Das CloudIsCool-Supportteam bietet Support für Benutzer ihrer Cloud-Produkte. Jedes Mal, wenn ein Benutzer den Support kontaktiert, wird ein Kundensupport-Ticket erstellt. Ein First-Response-Team ist für die Bearbeitung dieser Kundensupport-Tickets zuständig. Wenn es sich jedoch um ein besonders komplexes Ticket handelt, kann ein Mitglied des ersten Reaktionsteams das zweite Reaktionsteam um Hilfe bitten. Dies wird im Ticketsystem als Beratung kategorisiert. Das Analyseteam analysiert das Ticket und konsultiert Daten, um die Kundensupportprozesse zu verbessern.

Normalerweise wird die Beratungsanfrage erfolgreich erfüllt und das Erstreaktionsteam kann das Ticket des Kunden mithilfe der Anleitung des Zweitreaktionsteams lösen. Manchmal ist jedoch selbst das zweite Reaktionsteam nicht in der Lage, die Frage vollständig zu beantworten, oder neue Details zum Fall erfordern zusätzliche Erkenntnisse. In diesem Fall bittet das Erstreaktionsteam möglicherweise um eine weitere Konsultation, die als erneute Konsultation bezeichnet wird.

Dies alles ist ein wichtiger Kontext für einen BI-Experten, der mit Stakeholdern zusammenarbeitet, die daran interessiert sind, wie gut aktuelle Supportprozesse funktionieren und wie sie verbessert werden könnten. Wenn sie Berichtstabellen und Dashboards erstellen, die nur Konsultationen und keine erneuten Konsultationen verfolgen, verpassen sie möglicherweise wichtige Erkenntnisse darüber, wie effektiv das Konsultationssystem wirklich ist. Eine hohe Wiederkonsultationsrate würde beispielsweise bedeuten, dass mehr Fälle nicht im ersten oder zweiten Versuch gelöst werden. Dies könnte dazu führen, dass Kunden länger auf die Lösung ihrer Probleme warten. Die Führung möchte diese Prozesse bewerten.

Wenn der BI-Experte, der an diesem Projekt arbeitet, diesen Kontext kennt, ist er in der Lage, geeignete Metriken, Berichtstabellen und das Dashboard zu erstellen, das diese Metrik auf eine Weise verfolgt, die den Stakeholdern hilft, fundierte Entscheidungen über diesen Prozess zu treffen. Durch das Verständnis des Geschäftskontexts können BI-Experten aussagekräftigere Berichte erstellen.

Abschluss

Der Kontext ist das Wer, Was, Wo, Wann und Warum der Daten, die sie aussagekräftig machen. Die Kenntnis dieser Hintergrundinformationen hilft uns, Daten richtig zu interpretieren und nützliche Business-Intelligence-Erkenntnisse für Stakeholder zu visualisieren. Wenn BI-Experten den Kontext verstehen, die richtigen Daten auswählen und kontextualisierte Visuals erstellen, um sie mit Stakeholdern zu teilen, können sie Unternehmen und Führungskräfte in die Lage versetzen, erfolgreiche Entscheidungen zu treffen.

Datenverfügbarkeit in einer Welt des ständigen Wandels

Video 31

In einer früheren Lektion haben Sie einige der Lösungen aus der Toolbox des Business-Intelligence-Experten kennengelernt. Dazu gehören Datenmodelle, Pipelines wie ETL, Datenvisualisierungen und Dashboards. Dies sind alles leistungsstarke und spannende Lösungen, aber nur, wenn sie über relevante, aktuelle, konsistente und voreingenommene Daten verfügen, mit denen sie arbeiten können. Dieses Konzept wird als Datenverfügbarkeit bezeichnet. Die Datenverfügbarkeit beschreibt den Grad bzw. das Ausmaß, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können. Leider gibt es verschiedene Faktoren, die die Datenverfügbarkeit beeinträchtigen und somit die Integrität von BI-Lösungen gefährden können. In diesem Video besprechen wir einige dieser Herausforderungen und Möglichkeiten, sie anzugehen. Erstens betreffen einige der häufigsten Datenverfügbarkeitsprobleme die Integrität. Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, wissen Sie, dass Datenintegrität die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus umfasst. Typische Probleme im Zusammenhang mit der Datenintegrität sind Duplikate, fehlende Informationen, inkonsistente Strukturen oder die Nichteinhaltung von Geschäftsregeln. Wenn Sie die Lektion über Datenintegrität noch einmal durchgehen möchten, können Sie dies jetzt tun. Dann kehren Sie zu diesem Video zurück, wenn Sie bereit sind. Die zweite Herausforderung bei der Datenverfügbarkeit betrifft die Sichtbarkeit. Unter Datensichtbarkeit versteht man den Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können. Beispielsweise haben Mitarbeiter in der Betriebsabteilung eines Unternehmens möglicherweise keine Ahnung, welche Daten in der Kommunikationsabteilung gespeichert sind. Oder jemand, der in der Logistikabteilung arbeitet, verfügt möglicherweise über Datendateien, die viele tolle Informationen enthalten, von deren Existenz aber niemand weiß. Wenn Sie jedoch über eine klare Datentransparenz verfügen, ist es möglich, genaue und zeitnahe Erkenntnisse zu gewinnen und die Reaktionsfähigkeit und Agilität Ihres Unternehmens wirklich zu verbessern. Um diese Ziele zu erreichen, arbeiten BI-Experten häufig mit ihren Kollegen zusammen, um eine Liste von Datenrepositorys für Stakeholder zu erstellen. Sie können ein kurzes Interview mit den Dateneigentümern anfordern oder die Personen bitten, an einer kurzen Online-Umfrage zu den von ihnen erfassten und verwendeten Daten teilzunehmen. Dies ist eine einfache, aber sehr nützliche Übung, um herauszufinden, welche Art von Daten verfügbar sind. Bedenken Sie auch, dass Herausforderungen bei der Datentransparenz nicht nur innerhalb der eigenen vier Wände eines Unternehmens bestehen. Manchmal sind sich BI-Experten sehr nützlicher externer Daten nicht bewusst. Wie Sie vielleicht wissen, gibt es unzählige kostenlose öffentliche Datensätze, darunter Regierungsforschung, Klima-, Energie- und Gesundheitsstudien, Branchenumfragen und vieles mehr. All dies kann zu einem erfolgreichen BI-Projekt beitragen. Der dritte Faktor der Datenverfügbarkeit, den Sie beachten sollten, ist die Aktualisierungshäufigkeit. BI-Projekte umfassen häufig mehrere Datenquellen. Es kommt sehr häufig vor, dass unterschiedliche Quellen zu unterschiedlichen Zeiten aktualisiert werden, beispielsweise wöchentlich oder monatlich. Nehmen wir an, ein Business-Intelligence-Experte arbeitet für einen Hersteller von Heimtierbedarf mit Sitz in Brasilien und analysiert möglicherweise das Verkaufsvolumen der Produkte nach Stadt. Wenn ein Einzelhandelspartner Mitte Juli von Rio de Janeiro nach Sao Paulo zieht, fallen alle Umsätze dieses Monats unter Rio, weil die Adresse des Partners im BI-System noch nicht aktualisiert wurde. Entweder müssen die Daten des Einzelhändlers schneller aktualisiert werden, um mit den Verkaufsdaten übereinzustimmen, oder der Hersteller sollte alle Daten monatlich überprüfen. Aus diesem Grund ist es für BI-Experten wichtig zu verstehen, wie sich die Aktualisierungshäufigkeit verschiedener Datenquellen auf Erkenntnisse auswirken kann. Selbst wenn einzelne Datenquellen perfekt sind, ist der Integrationsaspekt oft ziemlich chaotisch. Nun kommen wir zu einer vierten Herausforderung bei der Datenverfügbarkeit: der Veränderung. Veränderungen sind in nahezu jedem Aspekt unseres Lebens eine Konstante, und bei Daten ist das nicht anders. Die Datenverfügbarkeit kann aufgrund einer Änderung interner Verfahren wie einer Systemaktualisierung oder eines neuen Aufzeichnungsprozesses beeinträchtigt sein. Es kann sich extern aufgrund eines Upgrades der Benutzeroberfläche oder einer Anpassung eines bestimmten Algorithmus ändern. Um dieses Problem anzugehen, müssen BI-Experten einen Plan haben, wie sie Stakeholder über Änderungen, die sich auf das Projekt auswirken könnten, auf dem Laufenden halten. Sie sollten die Teammitglieder dazu ermutigen, darüber nachzudenken, welche Tools oder Methoden sie derzeit verwenden, was sich ändern könnte, wie sich dies auf die verfolgten Daten auswirken könnte und wie potenzielle Lücken geschlossen werden können. Datenverfügbarkeit ist ein wichtiger Aspekt im BI-Bereich und Sie werden wahrscheinlich viel Zeit damit verbringen, sich mit Datenverfügbarkeitsfaktoren zu befassen. Dieses Video bietet eine Einführung in einige der häufigsten Probleme, auf die Sie stoßen werden. Aber es gibt noch andere Dinge, die die Verfügbarkeit von Daten beeinflussen können. Daher ist es wichtig, realistisch zu sein, welches Qualitätsniveau Sie anstreben. Für viele Projekte ist gut genug ausreichend. Beachten Sie jedoch unbedingt die Einschränkungen und Einschränkungen, wenn Sie diesen Ansatz wählen. Wie bei so vielen Dingen ist es schwierig, wenn nicht unmöglich, Perfektion zu erreichen und das ist in Ordnung.

 

 

 

Datenethik und die Bedeutung des Datenschutzes

Kürzlich haben Sie erfahren, wie wichtig der Kontext in der Business Intelligence ist. Sie haben festgestellt, dass Sie bei der Kontextualisierung etwas ins rechte Licht rücken, indem Sie seinen Ursprung und andere relevante Hintergrundinformationen berücksichtigen. die Motivation dahinter; der größere Kontext, in dem es existiert, beispielsweise ein bestimmter Zeitraum; und worauf es Auswirkungen haben könnte. Die Kontextualisierung fördert außerdem die Fairness und verringert das Risiko von Vorurteilen, wenn Ihre Benutzer nützliche Erkenntnisse aus den von Ihnen präsentierten Daten gewinnen möchten.

Ebenso haben Sie als BI-Experte die Verantwortung, Daten ethisch zu behandeln. Datenethik bezieht sich auf fundierte Standards für richtig und falsch, die vorschreiben, wie Daten gesammelt, weitergegeben und verwendet werden. Im Laufe Ihrer Karriere werden Sie mit vielen Daten arbeiten. Dazu gehören manchmal PII oder persönlich identifizierbare Informationen, die allein oder zusammen mit anderen Daten verwendet werden können, um die Identität einer Person herauszufinden. Ein Element des ethischen Umgangs mit diesen Daten besteht darin, sicherzustellen, dass die Privatsphäre und Sicherheit dieser Daten während ihrer gesamten Lebensdauer gewahrt bleibt. In dieser Lektüre erfahren Sie mehr über die Bedeutung des Datenschutzes und einige Strategien zum Schutz der Privatsphäre betroffener Personen.

Datenschutz ist wichtig

Datenschutz bedeutet, die Informationen und Aktivitäten einer betroffenen Person bei jeder Datentransaktion zu schützen. Dies wird auch als Informationsgeheimhaltung oder Datenschutz bezeichnet. Der Datenschutz befasst sich mit dem Zugriff, der Nutzung und der Erhebung personenbezogener Daten. Für die Personen, deren Daten erfasst werden, bedeutet dies, dass sie das Recht haben:

  • Schutz vor unbefugtem Zugriff auf Ihre privaten Daten

  • Freiheit von unangemessener Nutzung ihrer Daten

  • Das Recht, ihre Daten einzusehen, zu aktualisieren oder zu korrigieren

  • Möglichkeit, der Datenerfassung zuzustimmen

  • Gesetzliches Recht auf Zugriff auf die Daten

Um diese Rechte zu wahren, müssen Unternehmen und Organisationen Datenschutzmaßnahmen ergreifen, um die Daten einzelner Personen zu schützen. Auch das ist Vertrauenssache. Die Fähigkeit der Öffentlichkeit, Unternehmen personenbezogene Daten anzuvertrauen, ist wichtig. Es ist der Grund, warum Menschen das Produkt eines Unternehmens nutzen, ihre Informationen teilen und vieles mehr. Vertrauen ist eine wirklich große Verantwortung, die nicht auf die leichte Schulter genommen werden darf.

Schutz der Privatsphäre durch Datenanonymisierung 

Ein Radiergummi löscht Daten von einer Webseite auf einem Laptop-Bildschirm

Organisationen nutzen viele verschiedene Maßnahmen, um die Privatsphäre ihrer Datensubjekte zu schützen, wie z. B. die Einbindung von Zugriffsberechtigungen, um sicherzustellen, dass nur die Personen, die auf diese Informationen zugreifen sollen, dies auch tun können. Eine weitere wichtige Strategie zur Wahrung der Privatsphäre ist die Datenanonymisierung.

Bei der Datenanonymisierung handelt es sich um den Prozess des Schutzes privater oder sensibler Daten von Personen durch Eliminierung personenbezogener Daten. Typischerweise umfasst die Datenanonymisierung das Ausblenden, Hashen oder Maskieren persönlicher Informationen, häufig durch die Verwendung von Codes fester Länge zur Darstellung von Datenspalten oder durch das Ausblenden von Daten mit geänderten Werten.

Datenanonymisierung wird in nahezu jeder Branche eingesetzt. Als BI-Experte werden Sie die Anonymisierung wahrscheinlich nicht persönlich durchführen, es ist jedoch hilfreich zu verstehen, welche Arten von Daten häufig anonymisiert werden, bevor Sie beginnen, damit zu arbeiten. Zu diesen Daten können gehören: 

  • Telefonnummern

  • Namen

  • Kfz-Kennzeichen und Lizenznummern

  • Sozialversicherungsnummern

  • IP-Adressen

  • Krankenakten

  • E-mailadressen

  • Fotografien

  • Kontonummern

Stellen Sie sich eine Welt vor, in der wir alle Zugriff auf die Adressen, Kontonummern und andere identifizierbare Informationen des anderen haben. Das würde die Privatsphäre vieler Menschen verletzen und die Welt weniger sicher machen. Die Datenanonymisierung ist eine der Möglichkeiten, wie wir Daten privat und sicher halten können!

Die zentralen Thesen

Für jeden Fachmann, der mit Daten über tatsächliche Personen arbeitet, ist es wichtig, die Sicherheit und Privatsphäre dieser Personen zu berücksichtigen. Deshalb ist es so wichtig, die Bedeutung des Datenschutzes zu verstehen und zu verstehen, wie Daten, die PII enthalten, für die Analyse sicher gemacht werden können. Wir haben die Verantwortung, die Daten der Menschen und die darin enthaltenen personenbezogenen Daten zu schützen.

Wenn Sie mehr über Datenschutz und Ethik erfahren möchten, können Sie hier vorbeischauenden Abschnitt des Google Data Analytics-Zertifikatsprogramms zu Voreingenommenheit, Glaubwürdigkeit, Datenschutz, Ethik und Zugang.

Rechnen Sie mit Datenbeschränkungen

Wir leben in einer Welt, in der ständig Daten generiert werden. Es gibt so viele Informationen, aus denen man lernen kann. Aber wir leben auch in einer Welt, die sich ständig verändert, und oft weisen die Daten, auf die wir stoßen, bestimmte Einschränkungen auf, die wir berücksichtigen müssen, wenn wir Daten analysieren und daraus Erkenntnisse ziehen.

Besorgter BI-Analyst versucht, auf Datenquellen zuzugreifen.

Faktoren der Datenverfügbarkeit

Zuvor haben Sie erfahren, wie wichtig die Datenverfügbarkeit ist, also der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können. Die Faktoren, die die Datenverfügbarkeit beeinflussen, sind:

  • Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus.

  • Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können.

  • Aktualisierungshäufigkeit: Wie oft unterschiedliche Datenquellen mit neuen Informationen aktualisiert werden.

  • Änderung: Der Prozess der Änderung von Daten, entweder durch interne Prozesse oder externen Einfluss.

Als Nächstes werden Sie die Einschränkungen von Daten berücksichtigen, die sich auf die Verfügbarkeit auswirken können, und wie Sie als BI-Experte diese Einschränkungen antizipieren können.

Fehlende Daten

Wenn Sie über unvollständige oder nicht vorhandene Daten verfügen, verfügen Sie möglicherweise nicht über genügend Daten, um eine Schlussfolgerung zu ziehen. Oder Sie untersuchen möglicherweise sogar Daten zu einem völlig anderen Geschäftsproblem! Zu verstehen, welche Daten verfügbar sind, potenzielle andere Quellen zu identifizieren und Lücken zu schließen, ist ein wichtiger Teil des BI-Prozesses.

Falsch ausgerichtete Daten

Als BI-Experte nutzen Sie häufig Daten aus unterschiedlichen Quellen. Bei einigen davon handelt es sich möglicherweise um interne Quellen des Unternehmens, mit dem Sie zusammenarbeiten, es können sich aber auch externe Quellen darauf beziehen. Diese Quellen könnten Dinge auf völlig unterschiedliche Weise definieren und messen. In solchen Fällen führt eine frühzeitige Festlegung der Messmethoden zu einer umfassenden Standardisierung der Daten und sorgt so für mehr Zuverlässigkeit und Genauigkeit. Dadurch wird sichergestellt, dass Vergleiche zwischen Quellen aussagekräftig und aufschlussreich sind.

Schmutzige Daten

Unter schmutzigen Daten versteht man Daten, die Fehler enthalten. Schmutzige Daten können zu Fehlern in Ihrem System, ungenauen Berichten und schlechter Entscheidungsfindung führen. Die Implementierung von Prozessen zum Bereinigen von Daten durch Korrigieren oder Entfernen falscher, beschädigter, falsch formatierter, doppelter oder unvollständiger Daten innerhalb eines Datensatzes ist eine Möglichkeit, sich auf diese Einschränkung vorzubereiten.

Abschluss

Als BI-Experte müssen Sie verstehen, dass die Daten, mit denen Sie arbeiten, manchmal Einschränkungen unterliegen. Dies kann bedeuten, dass es nicht in einen bestimmten Zeitraum passt, nur für bestimmte Situationen gilt oder dass es schwierig ist, die benötigten Daten zu identifizieren. Wenn Sie in der Lage sind, diese Probleme vorherzusehen und sie bei der Entwicklung von Tools und Systemen für Ihr Unternehmen zu berücksichtigen, können Sie sicherstellen, dass diese Einschränkungen Ihre Stakeholder nicht davon abhalten, die Daten zu erhalten, die sie benötigen, um gute Entscheidungen zu treffen und den Projekterfolg sicherzustellen!

Meghna: Hüten Sie sich vor Voreingenommenheit

Video 32

Mein Name ist Meghna und ich bin Business-Intelligence-Analystin. Es gibt verschiedene Arten von Vorurteilen, mit denen ein Analytiker im normalen Leben umgehen kann: Bestätigungsvoreingenommenheit, Auswahlvoreingenommenheit, historische Voreingenommenheit und angewandte Voreingenommenheit. Bestätigungsfehler treten auf, wenn ein Analyst Daten untersucht oder zu interpretieren versucht, um sie mit seinen früheren Überzeugungen zu bestätigen. Dies kann in jeder Phase der Datenanalyse geschehen, beim Sammeln von Daten für die Analyse, bei der eigentlichen explorativen Analyse oder bei der Interpretation der Daten. Selektionsverzerrungen können auftreten, wenn es sich um Stichproben handelt, die nicht für die gesamte Bevölkerung repräsentativ sind. Dies kann organisch passieren, wenn wir mit kleinen Datensätzen arbeiten oder wenn der Randomisierungsprozess noch nicht stattgefunden hat. Historische Datenverzerrungen treten auf, wenn soziokulturelle Vorurteile und Überzeugungen in systematischen Prozessen widergespiegelt werden. Wenn beispielsweise manuelle Systeme einer bestimmten Personengruppe eine schlechte Bonitätsbewertung geben und ein Analyst diese Daten verwendet, um sie in automatisierte Systeme einzuspeisen, wird dieses automatische System diese Vorurteile nun entweder verstärken oder tatsächlich in den Ergebnissen widerspiegeln. Abschließend möchte ich noch über den Outlier Bias sprechen. Durchschnittswerte sind eine großartige Möglichkeit, Anomalien und Ausreißer zu verbergen und gleichzeitig unsere Beobachtung zu verzerren. Datenintegritätspraktiken sind sehr wichtig, um Verzerrungen bei den Daten zu vermeiden. Es gibt ein paar Tipps oder Dinge, die mir geholfen haben, während ich meine Analyse durchgeführt und versucht habe, Voreingenommenheit zu vermeiden. Die erste besteht darin, alle meine vorherigen Überzeugungen und Annahmen aufzuzeichnen, bevor ich mit der Analyse beginne, um mir tatsächlich der Tatsache bewusst zu sein, dass ich diese vorgefassten Meinungen über die Daten oder den Prozess habe. Zweitens besteht die Möglichkeit, einen stark randomisierten Datensatz zu verwenden, um tatsächlich Daten zu verwenden, die für die Analyse repräsentativer als nur praktisch sind. Die dritte Möglichkeit besteht darin, mehr Daten zu sammeln und mehr über die Gegenseite Ihrer Hypothese zu recherchieren, damit Sie diesen Teil nicht wirklich ignorieren oder sich nicht wirklich auf das konzentrieren, was Ihrer Meinung nach das Ergebnis Ihrer Analyse sein sollte. Und der letzte Punkt, der sehr wichtig ist, besteht darin, auf Ausreißer zu achten, wenn die durchschnittliche Analyse besagt, dass die Daten gut aussehen. Ich denke, es ist an der Zeit, tiefer in die Daten einzutauchen, um Nuancen zu verstehen.

Aussagekräftige Kennzahlen

Video 33

Eitelkeit ist ein interessantes Wort. Wenn Sie im Wörterbuch nach „Eitelkeit“ suchen, werden Sie feststellen, dass damit sowohl übermäßiger Stolz als auch etwas Leeres, Sinnloses oder Wertloses gemeint sein kann. Es ist faszinierend zu glauben, dass wir auf etwas stolz sein können, das sehr unwichtig ist. Aber das kommt manchmal vor, insbesondere wenn es um Geschäftskennzahlen geht. Tatsächlich haben wir in der Business-Intelligence-Branche einen Begriff für dieses Phänomen: Vanity-Metriken. Vanity-Metriken sind Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können. Eine bekannte Vanity-Kennzahl ist die Anzahl der Personen, die einem Unternehmen in den sozialen Medien folgen. Vielleicht gibt es Hunderttausende Follower, aber wie viele von ihnen tätigen tatsächlich einen Kauf, wie viele empfehlen andere Kunden auf die Website und wie viel Umsatz generieren sie tatsächlich für das Unternehmen? Eine Zahl zur Schau zu stellen, nur weil sie groß ist, bringt selten viel. Deshalb ist es wichtig sicherzustellen, dass jede von Ihnen überwachte Metrik produktiv, informativ und effektiv ist. Zu den nützlichen Geschäftskennzahlen könnten beispielsweise die Kundenbindungsrate eines Restaurants, die Produktivität eines Fertigungsteams, die monatlichen Gewinne und Verluste eines Fitnesscenters oder die Lagerbestände im Lager einer Apotheke gehören. Dies sind Zahlen, die zu nützlichen geschäftlichen Erkenntnissen führen können. Bei der Entscheidung, welche Metriken in ein Dashboard aufgenommen werden sollen, berücksichtigen BI-Experten vier wichtige Dinge. Erstens sind mehr Informationen nicht unbedingt besser. Ihre Stakeholder werden es zu schätzen wissen, wenn Sie die Anzahl der Metriken in Ihren Dashboards begrenzen, indem Sie nur diejenigen einbeziehen, die für den Projekterfolg entscheidend sind. Denken Sie dazu über die Benutzeranforderungen nach, darüber, was Benutzer bereits wissen und was sie lernen müssen, um diese Anforderungen zu erfüllen. Zu viele Kennzahlen, insbesondere irrelevante oder unnötige Kennzahlen, können die Leute verwirren und Ihr Dashboard entwerten. Stellen Sie als Nächstes sicher, dass die Kennzahlen mit den Geschäftszielen übereinstimmen. Berücksichtigen Sie die spezifischen Ziele Ihres Unternehmens und ermitteln Sie dann, welche Kennzahlen zur Unterstützung dieser Ziele und zur Messung des Erfolgs verwendet werden können. Bestätigen Sie, dass die erforderlichen Technologien und Prozesse vorhanden sind, um die für jede Metrik benötigten Daten zu erhalten und zu analysieren. Dies ist ein weiterer Zeitpunkt, über alle Faktoren im Zusammenhang mit der Datenverfügbarkeit nachzudenken. Vermeiden Sie vage oder sehr hochrangige Kennzahlen. Stattdessen sollten sie klar und präzise genug sein, um eine bestimmte Aktion zu informieren. Die SMART-Methodik kann Ihnen dabei helfen, die Schlüsselkennzahlen für das jeweilige Problem zu ermitteln. Wie Sie vielleicht wissen, hilft dieses Tool dabei, die Wirksamkeit einer Frage zu bestimmen. Es kann Ihnen jedoch auch dabei helfen, Kennzahlen dahingehend zu verfeinern, ob sie spezifisch, messbar, handlungsorientiert, relevant und zeitgebunden sind. Wenn Sie das Google Data Analytics-Zertifikat erworben haben, haben Sie etwas über die SMART-Methodik gelernt. Schauen Sie sich diese Lektion gerne noch einmal an, bevor Sie fortfahren. Abschließend ist es ratsam, zunächst die wichtigste Kennzahl zu ermitteln und sie gut sichtbar oben in Ihrem Dashboard anzuzeigen. Anschließend können unterstützende Kennzahlen in die unten aufgeführten Details eingehen. Wenn Sie beispielsweise ein Dashboard für eine Tomatenfarm erstellen, können Sie die Anzahl der versendeten Tomatenpaletten ganz oben angeben, da der Gesamtumsatz eine Schlüsselkennzahl ist. Darunter werden dann die Daten angezeigt, die den Palettenversand unterstützen, wie z. B. die Produktivität der Arbeiter und die Effizienz der Erntemaschinen. Darüber hinaus werden Ihre Benutzer es zu schätzen wissen, wenn Sie zusammengehörige Kennzahlen gruppieren. Für unseren Tomatenbauer würde das bedeuten, Verkaufsdaten in einem Abschnitt, Produktionseinblicke in einem anderen, Ernteraten in einem anderen und so weiter zu platzieren. Bedenken Sie, dass die besten Kennzahlen zwei wichtige Dinge hervorheben: die Leistung der Organisation und worauf sich Entscheidungsträger konzentrieren sollten. Mit anderen Worten: Sie stellen sicher, dass Ihre Dashboards nie umsonst erstellt werden.

So identifizieren Sie Schlüsselkennzahlen für ein Projekt

Wählen Sie Ihre Metriken

In einem früheren Video haben Sie erfahren, wie Business-Intelligence-Experten bestimmen, welche Metriken sie in ihre Dashboards aufnehmen, um ihren Stakeholdern relevante und umsetzbare Daten bereitzustellen. In dieser Lektüre werden Sie darüber nachdenken, wie die Auswahl der richtigen Kennzahlen den Erfolg eines Projekts bestimmen kann. Dazu untersuchen Sie ein Beispiel eines BI-Experten, der wichtige Kennzahlen für sein Projekt ermittelt.

Es gibt fünf wichtige Punkte, die BI-Experten bei der Auswahl von Metriken berücksichtigen:

  1. Die Anzahl der Metriken: Mehr Informationen sind nicht immer besser. BI-Experten begrenzen die Anzahl der Metriken in Dashboards, um sich gezielt auf diejenigen zu konzentrieren, die für den Erfolg eines Projekts von entscheidender Bedeutung sind. Wichtige Kennzahlen sind relevant und umsetzbar. Wenn beispielsweise die Metrik X sinkt, ist das gut oder schlecht? Welche Maßnahmen würde ein Benutzer ergreifen, wenn der Wert sinkt, während er anders wäre, wenn er stattdessen ansteigt? Zu viele Kennzahlen, die für das Projekt nicht relevant sind, können verwirrend sein und Ihr Dashboard weniger effektiv machen. Das Ziel besteht nicht darin, das Dashboard zu überladen, um jeden einzelnen Anwendungsfall abzudecken, sondern 80 % der häufigsten Anwendungsfälle.

  2. Ausrichtung an den Geschäftszielen: Das Verständnis der Geschäftsziele kann Ihnen dabei helfen, einzugrenzen, welche Kennzahlen diese Ziele unterstützen und ihren Erfolg messen. Wenn das Geschäftsziel beispielsweise darin besteht, den Umsatz zu steigern, nehmen Sie den Umsatz in Ihr Dashboard auf. Sie werden höchstwahrscheinlich keine Kennzahl wie die Kundenzufriedenheit einbeziehen wollen, da diese nicht direkt mit dem Geschäftsziel der Umsatzsteigerung zusammenhängt.

  3. Die erforderlichen Technologien und Prozesse: Es ist wichtig zu bestätigen, dass die erforderlichen Technologien und Prozesse für die von Ihnen ausgewählten Metriken vorhanden sind. Wenn Sie die erforderlichen Daten nicht erhalten und analysieren können, sind diese Metriken nicht sehr nützlich.

  4. Die Häufigkeit der Daten: Sie müssen berücksichtigen, wie häufig die Daten verfügbar sind. Wenn viele Kennzahlen in unterschiedlicher Häufigkeit und Häufigkeit bereitgestellt werden, wird es schwierig, eine Überprüfung zu planen.

  5. Verwenden Sie die SMART-Methodik: Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, wissen Sie, dass die SMART-Methodik ein nützliches Werkzeug zum Erstellen effektiver Fragen an Stakeholder ist. Es kann auch verwendet werden, um Schlüsselmetriken zu identifizieren und zu verfeinern, indem sichergestellt wird, dass sie spezifisch, messbar, handlungsorientiert, relevant und zeitgebunden sind. Dies kann Ihnen dabei helfen, vage oder sehr komplexe Metriken zu vermeiden, die für die Beteiligten nicht nützlich sind, und stattdessen Metriken zu erstellen, die präzise und informativ sind.

Eine integrierte Sicht

In der BI-Welt erfordern Daten einen dynamischen und durchdachten Ansatz, um auftretende Ereignisse zu erkennen und darauf zu reagieren. Gefragt ist eine integrierte Sicht auf das gesamte Unternehmen. In manchen Fällen können Metriken unkompliziert sein. Zum Beispiel ist der Umsatz ziemlich eindeutig: Der Umsatz steigt und die Dinge laufen gut! Andere Kennzahlen sind jedoch etwas komplizierter.

In einer früheren Lektüre haben Sie herausgefunden, wie wichtig der Kontext für das CloudIsCool-Supportteam ist, wenn es darum geht, seine Fähigkeit zu messen, Fragen des Kundensupports effektiv zu beantworten. Zur Erinnerung: Jedes Mal, wenn ein Kunde den Support kontaktierte, wurde ein Kundensupportticket erstellt. Diese Tickets wurden vom First-Response-Team von CloudIsCool bearbeitet. Manchmal benötigte das Erstreaktionsteam Hilfe bei der Beantwortung komplexerer Tickets. Sie würden sich dann an das zweite Reaktionsteam wenden. Dies wurde im Support-Ticket als „Beratung“ gekennzeichnet.

Stellen Sie sich vor, die BI-Experten, die mit diesem Team zusammenarbeiten, versuchen jetzt zu entscheiden, welche Metriken in einem Dashboard nützlich sind, das darauf ausgelegt ist, die Kundenzufriedenheitsbewertungen für Support-Tickets zu erhöhen. Vielleicht sind ihre Stakeholder daran interessiert, Beratungen zu überwachen, um sicherzustellen, dass Kunden rechtzeitig die Hilfe erhalten, die sie benötigen. Daher erwägt das BI-Team, die Beratungsrate, also die Rate, mit der Kundenbetreuer interne Experten um Hilfe bitten, als Kennzahl in ihr Dashboard aufzunehmen.

Beachten Sie, dass eine steigende Konsultationsrate gut oder schlecht sein kann. Dies könnte bedeuten, dass Kundendienstmitarbeiter kundenorientierter vorgehen und versuchen, sicherzustellen, dass jeder Kunde die beste Antwort erhält. Es könnte aber auch bedeuten, dass Agenten mit Beschwerden überhäuft werden und diese an interne Experten abwälzen müssen, um mithalten zu können. Daher ist die Konsultationsrate eine Kennzahl, die keine klare Richtung vorgibt; Es hat auch keinen offensichtlichen Einfluss auf den Entscheidungsprozess allein. Es handelt sich also nicht um eine nützliche Kennzahl für dieses Dashboard. Stattdessen wählen die BI-Experten Kennzahlen aus, die Erfolg oder Misserfolg auf aussagekräftigere Weise anzeigen. Sie könnten sich beispielsweise dafür entscheiden, eine Metrik einzubeziehen, die verfolgt, wenn ein Support-Mitarbeiter feststellt, dass Support-Dokumentation fehlt. Dies wird Führungskräften bei der Entscheidung helfen, ob sie mehr Dokumentation erstellen sollen, auf die die Agenten verweisen können. Beachten Sie, dass diese Kennzahl eine klare Handlungslinie hat, die wir ergreifen können, je nachdem, wie hoch oder niedrig sie ist!

Abschluss

Die Fähigkeit, Kennzahlen auszuwählen, die die Entscheidungsfindung beeinflussen und den Projekterfolg unterstützen, ist eine Schlüsselkompetenz für Ihre Karriere als BI-Experte. Denken Sie daran, die Anzahl der Kennzahlen zu berücksichtigen, wie sie mit Ihren Geschäftszielen übereinstimmen, welche Technologien und Prozesse zu ihrer Messung erforderlich sind und wie sie der SMART-Methodik entsprechen. Es ist auch wichtig, einen integrierten Überblick über das gesamte Unternehmen zu behalten und zu wissen, wie die von Ihren Kennzahlen gelieferten Informationen als Orientierungshilfe für das Handeln der Stakeholder dienen.

Nordstern-Metriken

Bisher haben Sie erfahren, wie BI-Experten die richtigen Kennzahlen auswählen, um den Erfolg ihrer Projekte zu messen. BI-Experten verwenden auch eine andere spezifische Art von Metrik, um den langfristigen Erfolg des gesamten Unternehmens oder Teams zu messen; Diese Metrik wird oft als Nordsternmetrik bezeichnet. In dieser Lektüre erfahren Sie mehr über North-Star-Metriken, wie BI-Experten sie auswählen und wie sie das Wachstum eines Unternehmens im Laufe der Zeit unterstützen können.

Der Leitstern

Die Nordstern-Kennzahl eines Unternehmens geht über kurzfristige Ziele hinaus – sie soll den zentralen messbaren Wert der Produkte oder Dienstleistungen eines Unternehmens über die gesamte Lebensdauer hinweg erfassen. Diese Kennzahlen sind ein Leitfaden, der ein Unternehmen vorantreibt. Aus diesem Grund wird es als Nordstern-Metrik bezeichnet – so wie der Nordstern zur Navigation durch die Wildnis verwendet werden kann, können diese Metriken verwendet werden, um Geschäftsentscheidungen zu steuern und ein Unternehmen zum Wachstum zu führen.

Diese Kennzahl als Richtschnur für das gesamte Unternehmen zu haben, ist vor allem in dreierlei Hinsicht nützlich:

  1. Teamübergreifende Ausrichtung: Verschiedene Teams haben unterschiedliche Spezialgebiete und Schwerpunkte, die zum Funktionieren eines Unternehmens beitragen. Sie arbeiten nicht immer an denselben Projekten oder mit denselben Kennzahlen, was die Abstimmung im gesamten Unternehmen erschweren kann. Eine Nordstern-Metrik ermöglicht es allen Teams, sich auf ein einheitliches Ziel zu konzentrieren, auch wenn sie an unterschiedlichen Dingen arbeiten.

  2. Wachstum verfolgen: Es kann schwierig sein, das Wachstum einer gesamten Organisation im Laufe der Zeit zu verstehen und zu verfolgen, ohne die treibenden Kennzahlen zu verstehen, die das Wachstum bestimmen. Eine Nordstern-Metrik bietet einen langfristig messbaren Datenpunkt, auf den sich Stakeholder konzentrieren können, wenn sie die Gesamtleistung und das Wachstum eines Unternehmens diskutieren.

  3. Fokussierung auf Werte: Eine Nordstern-Metrik ist in erster Linie ein Leitprinzip für ein Unternehmen – sie bestimmt, was für die Organisation und die Stakeholder wichtig ist. Das bedeutet, dass die Wahl der richtigen Kennzahl zur Steuerung eines Unternehmens dazu beitragen kann, die Werte unter Kontrolle zu halten – sei es die Kundenzufriedenheit, die Anzahl der Kunden, die den Verkaufszyklus abschließen, oder die Kundenbindung.

Auswahl einer Nordstern-Metrik

Da North-Star-Kennzahlen für den anhaltenden Erfolg eines Unternehmens von entscheidender Bedeutung sind, ist die Auswahl der richtigen Kennzahl ein grundlegender Bestandteil einer Business-Intelligence-Strategie. Die Nordstern-Metrik muss den wesentlichsten Teil oder die Mission des Unternehmens messen. Und weil jedes Unternehmen anders ist, wird auch die Nordsternkennzahl jedes Unternehmens einzigartig sein. Um herauszufinden, welche Nordstern-Metrik am nützlichsten sein könnte, können Sie einige Fragen stellen:

  • Was ist für die Prozesse dieses Unternehmens wesentlich?

  • Welches sind die wichtigsten gemessenen KPIs?

  • Welcher dieser KPIs erfasst alle notwendigen Informationen über dieses Unternehmen?

  • Wie können die anderen Metriken um diese primäre Metrik herum strukturiert werden?

Echte Nordstern-Metriken

Da immer mehr Unternehmen begonnen haben, Nordstern-Kennzahlen als Leitfaden für ihre Geschäftsstrategien zu verwenden, gibt es viele Beispiele für Nordstern-Kennzahlen in verschiedenen Branchen:

  • E-Commerce:

    • Wöchentliche Anzahl der Kunden, die den Verkaufszyklus abschließen

    • Wert der täglichen Einkäufe

  • Sozialen Medien:

    • Anzahl der täglich aktiven Benutzer

    • Gesendete Nachrichten pro Tag

  • Streaming- und Mediendienste:

    • Anzahl der Neuanmeldungen

    • Gesamtlesezeit

    • Gesamte Betrachtungszeit

    • Monatlicher Abonnementumsatz

  • Gastfreundschaft:

    • Anzahl der gebuchten Nächte

    • Anzahl der Stammkunden

Dies sind nur einige Beispiele – es gibt viele potenzielle North-Star-Kennzahlen, aus denen Unternehmen in einer Vielzahl von Branchen wählen können, von der Technologie bis zum Finanzwesen!

Die zentralen Thesen

Als BI-Experte wird es eine Ihrer Aufgaben sein, Stakeholder in die Lage zu versetzen, Geschäftsentscheidungen zu treffen, die Wachstum und Erfolg langfristig fördern. North-Star-Kennzahlen sind eine großartige Möglichkeit, ein Unternehmen zu messen und in die Zukunft zu führen, da sie es Ihnen ermöglichen, den Erfolg des gesamten Unternehmens tatsächlich zu messen, Teams auf ein einziges Ziel auszurichten und die Werte des Unternehmens im Vordergrund ihrer Strategie zu halten.

Überbrücken Sie die Lücke vom Ist-Zustand zum Idealzustand

Überbrücken Sie die Lücke

Business-Intelligence-Experten überwachen kontinuierlich Prozesse und Systeme, um festzustellen, ob Aktualisierungen für mehr Effizienz und Optimierung erforderlich sind. Diese Fachleute erforschen Möglichkeiten, den Ist-Zustand dem Idealzustand anzunähern. Sie tun dies durch einen Prozess namens Gap-Analyse, bei dem es sich um eine Methode zur Untersuchung und Bewertung des aktuellen Zustands eines Prozesses handelt, um Möglichkeiten für zukünftige Verbesserungen zu identifizieren.

Bei der Lückenanalyse geht es darum, zu verstehen, wo Sie sich aktuell im Vergleich zu Ihrem Ziel befinden, damit Sie die Lücke schließen können. BI nutzt Lückenanalysen für verschiedenste Zwecke, etwa zur Verbesserung von Datenbereitstellungssystemen oder zur Erstellung von Dashboard-Berichten.

Beispielsweise verwendet ein Vertriebsteam möglicherweise ein Dashboard, um den Fortschritt der Vertriebspipeline zu verfolgen, das eine Datenverzögerung von sechs Stunden aufweist. Sie verwenden dieses Dashboard, um die aktuellsten Informationen zu sammeln, während sie sich auf wichtige Besprechungen vorbereiten. Die sechsstündige Verzögerung hindert sie daran, in Stakeholder-Meetings nahezu in Echtzeit auf Erkenntnisse zuzugreifen und diese auszutauschen. Idealerweise sollte die Verzögerung eine Stunde oder weniger betragen.

Gemeinsam mit den Stakeholdern die Richtung festlegen

Der erste Schritt zur Überbrückung dieser Lücke besteht darin, gemeinsam mit den Beteiligten die richtige Richtung für dieses BI-Projekt festzulegen. Für die Beurteilung des tatsächlichen Idealzustands eines Systems ist es wichtig, die Bedürfnisse der Stakeholder zu ermitteln und zu verstehen, wie Benutzer mit den Daten interagieren. Welche Bedürfnisse haben Stakeholder, die nicht erfüllt werden oder effizienter angegangen werden könnten? Welche Daten sind für ihre Entscheidungsprozesse notwendig? Es ist eine enge Zusammenarbeit mit den Stakeholdern erforderlich, um zu verstehen, wofür sie ihre BI-Tools tatsächlich benötigen.

Die BI-Experten sammeln Informationen und erfahren, dass das Unternehmen im Zuge seines Wachstums Niederlassungen im ganzen Land eröffnete. Daher sind die Vertriebsteams jetzt stärker verteilt. Wenn derzeit ein Teammitglied aus einem Büro Informationen über einen potenziellen Kunden aktualisiert, erhalten Teammitglieder aus anderen Büros diese Aktualisierung erst, wenn der Arbeitstag fast vorbei ist. Ihr Ziel ist es daher, die Datenverzögerung zu reduzieren, um eine bessere teamübergreifende Koordination zu ermöglichen.

Kontext und Datenqualität

Neben der Ermittlung der Bedürfnisse der Stakeholder ist es für den BI-Experten auch wichtig, den Kontext der Daten zu verstehen, mit denen er interagiert und die er präsentiert. Wie Sie wissen, ist Kontext der Zustand, in dem etwas existiert oder geschieht; Es verwandelt Rohdaten in aussagekräftige Informationen, indem es die Datenperspektive bietet. Dazu gehört die Festlegung, wer es gesammelt oder seine Sammlung finanziert hat; die Motivation hinter dieser Aktion; woher die Daten stammen; Wann; die Methode, mit der es gesammelt wurde; und worauf die Daten einen Einfluss haben könnten. BI-Experten müssen bei der Erstellung von Tools für Benutzer auch den Kontext berücksichtigen, um sicherzustellen, dass Stakeholder in der Lage sind, Ergebnisse richtig zu interpretieren und entsprechend zu handeln.

Es ist außerdem wichtig, dass BI-Experten die Qualität und Integrität der Daten sicherstellen, auf die die Beteiligten zugreifen. Wenn die Daten falsch sind, sind die Berichtstools nicht korrekt und die Beteiligten sind nicht in der Lage, angemessene Entscheidungen zu treffen – egal, wie viel Kontext ihnen gegeben wurde.

Jetzt muss der BI-Experte des Vertriebsteams Datenquellen und die Aktualisierungshäufigkeit für jede Quelle identifizieren. Sie stellen fest, dass die meisten wichtigen Datenquellen alle 15 Minuten aktualisiert werden. Es gibt einige nicht unbedingt erforderliche Datenquellen, die selten aktualisiert werden, aber das Team muss nicht wirklich warten, bis diese Datenquellen aktualisiert sind, um die Pipeline zu verwenden. Sie können außerdem bestätigen, dass das Data-Warehouse-Team überprüft, ob diese Datenquellen sauber sind und keine Duplikate oder Nullfelder enthalten, die Probleme verursachen könnten.

Gebäudestrukturen und -systeme

Ein großer Teil der Arbeit eines BI-Experten besteht im Aufbau von Strukturen und Systemen. Das bedeutet, Datenbankspeichersysteme zu entwerfen, die Daten zu organisieren und mit Datenbank-Governance-Spezialisten zusammenzuarbeiten, um diese Systeme zu warten. Dazu gehört auch die Erstellung von Pipeline-Tools, die Daten automatisch im gesamten System verschieben und umwandeln, um die Daten dorthin zu bringen, wo sie nützlich sein müssen.

Diese Strukturen und Systeme können dafür sorgen, dass Daten während ihres Entscheidungsprozesses organisiert, zugänglich und nützlich für die Beteiligten bleiben. Dadurch können Benutzer jederzeit auf die benötigten Daten zugreifen – ein ideales System sollte genau dafür organisiert und strukturiert sein. Um den Anforderungen des Vertriebsteams gerecht zu werden, entwirft der BI-Analyst in diesem Fall einen neuen Workflow, mit dem Datenquellen gleichzeitig verarbeitet werden können, wodurch die Verarbeitungszeit von 6 Stunden auf weniger als eine Stunde verkürzt wird.

Erkenntnisse teilen

Wenn Sie über das Google Data Analytics-Zertifikat zu diesem Kurs kommen, sind Sie möglicherweise bereits damit vertrautTeilen Sie die Phase des Datenanalyseprozesses. An diesem Punkt erstellt ein Datenanalyst Datenvisualisierungen und Berichte und präsentiert sie den Stakeholdern. Auch BI-Experten müssen Erkenntnisse teilen, es gibt jedoch einige wesentliche Unterschiede in der Art und Weise, wie sie dies tun. Wie Sie erfahren haben, ist die Schaffung von Möglichkeiten für Benutzer, bei Bedarf auf Daten zuzugreifen und diese zu erkunden, ein wesentlicher Bestandteil eines idealen BI-Systems. Ein BI-Experte erstellt automatisierte Systeme zur Übermittlung von Erkenntnissen an Stakeholder oder Dashboards, die eingehende Daten überwachen und aktuelle Aktualisierungen bereitstellen, in denen Benutzer selbstständig navigieren können.

Im Beispiel des Vertriebsteam-Dashboards ist das Endergebnis ein Dashboard, das Vertriebsteams im ganzen Land verwenden, um den Fortschritt nahezu in Echtzeit zu verfolgen. Um sicherzustellen, dass die Teams über die Aktualisierungen informiert sind, gibt der BI-Analyst des Teams Informationen über diese Backend-Verbesserungen weiter und fordert alle Vertriebsteams auf, die Daten jeweils zur vollen Stunde vor jedem Meeting zu überprüfen.

Auf Erkenntnisse reagieren

BI konzentriert sich auf die Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen. Diese Erkenntnisse leiten Geschäftsentscheidungen und -entwicklungen. Aber der BI-Prozess endet hier nicht: BI-Experten messen weiterhin diese Ergebnisse, überwachen Daten und nehmen Anpassungen am System vor, um Änderungen oder neue Anfragen von Stakeholdern zu berücksichtigen.

Nach der Implementierung der Backend-Verbesserungen erstellt das Vertriebsteam außerdem Systemwarnungen, um es automatisch zu benachrichtigen, wenn Datenprozesse hinterherhinken, damit es auf eine Datenverzögerung vorbereitet ist. Auf diese Weise könnten sie genau wissen, wie gut das System funktioniert und ob es in Zukunft erneut aktualisiert werden muss.

Abschluss

Ein großer Teil der Arbeit eines BI-Experten besteht darin, die Funktionsweise aktueller Systeme und Prozesse zu identifizieren, potenzielle Verbesserungen zu bewerten und diese umzusetzen, damit das aktuelle System näher am idealen Systemzustand ist. In diesem Kurs erfahren Sie, wie Sie dies erreichen können, indem Sie mit Interessengruppen zusammenarbeiten, den Kontext verstehen, die Datenqualität aufrechterhalten, Erkenntnisse austauschen und auf Grundlage von Erkenntnissen handeln.

Fallstudie: USDM – Auswahl wichtiger Projektkennzahlen

 
Informationen:
Dieses Element enthält Inhalte, die noch nicht in Ihre bevorzugte Sprache übersetzt wurden.
 

In diesem Teil des Kurses haben Sie sich darauf konzentriert, wie Business-Intelligence-Experten effektive Kennzahlen für ein Projekt ermitteln. Ein wichtiger Teil dieses Prozesses besteht darin, mit den Stakeholdern zusammenzuarbeiten, um ihren Datenbedarf zu verstehen und herauszufinden, wie diese Interessen mit den Daten gemessen und dargestellt werden können. In dieser Fallstudie haben Sie die Möglichkeit, anhand eines Beispiels zu sehen, wie das BI-Team arbeitetUSDMarbeitete mit Stakeholdern zusammen, um Metriken zu entwickeln.

 

USDM-Markenlogo

Firmenhintergrund

USDM mit Hauptsitz in Santa Barbara, Kalifornien, arbeitet mit Life-Science-Unternehmen aus einer Vielzahl von Branchen zusammen, darunter Biotechnologie, Pharmazie, Medizintechnik und Klinik. USDM hilft seinen Kunden, von großen Unternehmen bis hin zu kleinen Unternehmen, sicherzustellen, dass ihre Datenbanksysteme den Industriestandards und -vorschriften entsprechen und effektiv arbeiten, um ihre Anforderungen zu erfüllen. Die Vision von USDM besteht darin, der Welt Life-Science- und Gesundheitslösungen besser und schneller zugänglich zu machen – beginnend mit den eigenen Unternehmenswerten: Kundenzufriedenheit, Verantwortlichkeit, Integrität, Respekt, Zusammenarbeit und Innovation.

usdm.com-Homepage

Die Herausforderung

In dieser Fallstudie werden Sie ein Beispiel für die Arbeit von USDM mit einem seiner Kunden untersuchen. Der Auftraggeber dieses Projekts erforscht und entwickelt Antikörpertherapien für Krebspatienten. Der Kunde benötigt Analysen, die die Wirksamkeit und Effizienz seiner Produkte messen. Da der Kunde jedoch über die vorhandene Datenbank verfügt, muss er auf viele Systeme zugreifen, darunter Anlagendaten, Lizenzinformationen sowie Vertriebs- und Marketingdaten, um die benötigten Berichtstypen zu erhalten. Alle diese Daten sind an verschiedenen Orten vorhanden und daher schafft die Entwicklung von Analyseberichten Probleme für die Stakeholder des Kunden. Außerdem wird es schwieriger, wichtige Kennzahlen zu vergleichen, da so viele KPIs an einem Ort zusammengeführt werden müssen. 

Um besser zu verstehen, wie effektiv sein Produkt ist und welche Nachfrage es prognostiziert, bat der Kunde USDM um Hilfe bei der Entwicklung eines Datenspeichersystems, das seinen spezifischen Anforderungen gerecht werden könnte. Sie brauchten ein System, das die von ihrem Team benötigten Daten zusammenführt, Branchenvorschriften befolgt und es ihnen ermöglicht, auf einfache Weise Berichte auf der Grundlage wichtiger Kennzahlen zu erstellen, die zur Messung der Produkteffektivität und Markttrends verwendet werden können. Ein wesentlicher Teil dieser Initiative begann mit den Grundlagen: Was waren die tatsächlichen Schlüsselkennzahlen für das Team des Kunden und aus welchen Datensystemen stammten sie?

Die Vorgehensweise

Um herauszufinden, welche Kennzahlen für die Geschäftsanforderungen des Kunden am wichtigsten waren, musste das USDM-Team den Input verschiedener Personen aus dem gesamten Unternehmen einholen. Sie mussten beispielsweise wissen, welche Diagramme die Vertriebs- und Marketingteams, die diese Daten für ihre Berichte verwendeten, benötigten, wie ihre bestehenden Prozesse aussahen und wie diese Anforderungen im neuen System berücksichtigt werden konnten. Sie mussten aber auch wissen, welche Daten das Produktentwicklungsteam zur Messung der Wirksamkeit verwendete.

 

Illustration einer Teambesprechung

USDM arbeitete eng mit verschiedenen Teams zusammen, um zu ermitteln, welche Diagramme sie für Berichte benötigten, wie sie derzeit auf das Datenbanksystem zugreifen und es nutzen und was sie mit dem neuen System erreichen wollten. Als Ergebnis konnte das Team eine Auswahl wichtiger Kennzahlen ermitteln, die die Geschäftsanforderungen seines Kunden widerspiegelten. Zu diesen Kennzahlen gehörten:

  • Umsatzentwicklung

  • Produktleistung

  • Versicherungsansprüche

  • Informationen für Ärzte

  • Anlagendaten

Um eine Business-Intelligence-Lösung umzusetzen, muss sowohl eine geschäftliche Interaktion mit Stakeholdern als auch eine technische Interaktion mit den Architekten der Systeme anderer Teams stattfinden. Sobald diese Kennzahlen vom Kunden identifiziert wurden, arbeitete das USDM-Team mit anderen Mitgliedern des Kundenteams zusammen, um mit der Entwicklung einer neuen Lösung zu beginnen, die diese Messungen erfassen könnte. 

Aber fast jedes Projekt bringt unerwartete Herausforderungen mit sich; Das Datenbanktool, das das Team zur Entwicklung des neuen Systems verwendete, verfügte nicht über alle Funktionen, die das Team zur Erfassung seiner unverzichtbaren Kennzahlen benötigte. In diesem Fall arbeitete das USDM-Team mit der Führung zusammen, um eine Liste mit Anfragen des Tool-Anbieters zu erstellen, der in der Lage war, auf die individuellen Bedürfnisse seines Teams einzugehen.

Die Ergebnisse 

Am Ende des Projekts entwickelte das USDM BI-Team ein Datenspeichersystem, das alle vom Team benötigten Daten aus verschiedenen Quellen konsolidierte. Das System erfasste die wichtigsten Kennzahlen, die der Kunde benötigte, um die Wirksamkeit seines Produkts zu verstehen, die Verkaufsnachfrage vorherzusagen und Marketingstrategien zu bewerten. Die mit diesem Datenspeichersystem erstellten Reporting-Dashboards enthielten alles, was die Stakeholder benötigten. Durch die Konsolidierung aller KPIs an einem Ort könnte das System schnellere Erkenntnisse liefern, dem Kunden Zeit sparen und die Effizienz steigern, ohne dass Berichte von jedem einzelnen System ausgeführt werden müssen. Die Lösung war automatisierter und effizienter – und was noch wichtiger ist: Sie wurde speziell unter Berücksichtigung der nützlichsten Kennzahlen des Teams entwickelt.

Abschluss 

Die Zusammenarbeit mit Benutzern und Stakeholdern zur frühzeitigen Auswahl von Metriken kann dabei helfen, die langfristige Ausrichtung eines Projekts, die spezifischen Bedürfnisse der Stakeholder und die Gestaltung von BI-Tools zu bestimmen, die den individuellen Geschäftsanforderungen am besten gerecht werden. Als BI-Experte wird ein wichtiger Teil Ihrer Rolle darin bestehen, wichtige Kennzahlen zu berücksichtigen und die von Ihnen erstellten Tools und Systeme so anzupassen, dass diese Messwerte für die Berichterstellung effizient erfasst werden.

Einpacken

Video35

Und schon sind wir am Ende eines weiteren Abschnitts dieses Kurses angelangt. Sie entdecken so viel über Business Intelligence. Ich freue mich wirklich für dich, wie weit du gekommen bist und auf alles, was vor dir liegt. Ich hoffe, dass Sie gleichermaßen inspiriert und motiviert sind, weiterhin große Fortschritte zu machen. An diesem Punkt haben Sie wertvolle Kenntnisse über einige der wichtigsten Elemente von BI erworben. Sie haben etwas über den Kontext gelernt und erfahren, wie er Menschen dabei helfen kann, Fehler zu vermeiden, Zeit und Mühe zu sparen und zu bestätigen, dass Daten korrekt und fair sind. Auch der Kontext ist bei der Erstellung von BI-Tools wichtig, da er Benutzern die Zusammenarbeit und den Austausch von Informationen ermöglicht, was dazu beiträgt, Geschäftskennzahlen klarer und umfassender zu gestalten. Sie haben sich auch mit dem Konzept der Datenverfügbarkeit befasst und erklärt, warum diese für die Aufrechterhaltung der Integrität von BI-Lösungen so wichtig ist. Und Sie untersuchen weiterhin Metriken sowie die Strategien, die BI-Experten verwenden, wenn sie entscheiden, welche Metriken in ein Dashboard aufgenommen werden sollen. Bald ist es an der Zeit, Ihre BI-Kenntnisse auf ein szenariobasiertes Projekt für Ihr Portfolio anzuwenden. Sie erstellen Ihren eigenen Ansatz für die Beispielsituation und überlegen, wie Sie die einzelnen Aufgaben in Ihrem Unternehmen erledigen würden. Dies wird ein unschätzbares Hilfsmittel bei Ihrer Jobsuche sein. Wie immer empfehle ich Ihnen, die Diskussionsforen optimal zu nutzen. Der Austausch von Ideen und Fragen ist eine wunderbare Möglichkeit, in die Welt der BI einzutauchen. Doch zunächst gibt es noch eine weitere benotete Prüfungsleistung. Schauen Sie sich auch hier unbedingt die Lektüre an, in der neue Glossarbegriffe aufgeführt sind, und nehmen Sie sich die nötige Zeit, um Videos, Lektüren und Ihre eigenen Notizen durchzugehen. Tolle Arbeit und ich kann es kaum erwarten, bald wieder bei Ihnen zu sein.

Glossarbegriffe aus Modul 3

Datenverfügbarkeit: Der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können

Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus

Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können

Vanity-Metrik: Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können

Begriffe und ihre Definitionen aus vorherigen Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholder in die Lage zu versetzen, wirkungsvolle Geschäftsentscheidungen zu treffen

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

UND

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

ICH

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

M

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

S

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

T

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats auf den Kontext

Kontext ist der Zustand, in dem etwas existiert oder geschieht. Der Kontext ist bei der Datenanalyse wichtig, da er Ihnen hilft, riesige Mengen unorganisierter Daten zu sichten und sie in etwas Sinnvolles umzuwandeln. Tatsache ist, dass Daten wenig Wert haben, wenn sie nicht mit dem Kontext verknüpft sind.

Bild einer Hand, die das letzte Puzzleteil in ein 4-teiliges Puzzle einfügt

Wenn wir den Kontext hinter den Daten verstehen, können wir sie in jeder Phase des Datenanalyseprozesses aussagekräftiger gestalten. Beispielsweise können Sie vielleicht ein paar Vermutungen darüber anstellen, was Sie in der folgenden Tabelle sehen, ohne mehr Kontext könnten Sie sich aber nicht sicher sein.

2010

28000

2005

18000

2000

23000

1995

10000

Wenn andererseits die erste Spalte so beschriftet wäre, dass sie die Jahre darstellt, in denen eine Umfrage durchgeführt wurde, und die zweite Spalte die Anzahl der Personen anzeigt, die auf diese Umfrage geantwortet haben, würde die Tabelle viel mehr Sinn ergeben. Gehen Sie noch einen Schritt weiter und Sie werden vielleicht feststellen, dass die Umfrage alle fünf Jahre durchgeführt wird. Dieser zusätzliche Kontext hilft Ihnen zu verstehen, warum die Tabelle Lücken von fünf Jahren aufweist.

Jahre (Erhebung alle 5 Jahre)

Befragte

2010

28000

2005

18000

2000

23000

1995

10000

Der Kontext kann Rohdaten in aussagekräftige Informationen verwandeln. Für Datenanalysten ist es sehr wichtig, ihre Daten zu kontextualisieren. Das bedeutet, den Daten eine Perspektive zu geben, indem man sie definiert. Dazu müssen Sie Folgendes identifizieren:

  • Wer: Die Person oder Organisation, die die Datenerfassung erstellt, gesammelt und/oder finanziert hat

  • Was: Die Dinge auf der Welt, auf die Daten einen Einfluss haben könnten

  • Wo: Der Ursprung der Daten

  • Wann: Der Zeitpunkt, zu dem die Daten erstellt oder erfasst wurden

  • Warum: Die Motivation hinter der Kreation oder Sammlung

  • Wie: Die zum Erstellen oder Sammeln verwendete Methode

Dies ist ein Bild eines unbeschrifteten Diagramms mit drei gestrichelten Linien (rot, blau und gelb) und einem Stern auf der gelben Linie

Bei jedem Schritt Ihres Analyseprozesses ist es wichtig, den Kontext zu verstehen und einzubeziehen, daher ist es eine gute Idee, sich schon früh in Ihrer Karriere damit vertraut zu machen. Wenn Sie beispielsweise Daten sammeln, sollten Sie auch Fragen zum Kontext stellen, um sicherzustellen, dass Sie das Geschäft und den Geschäftsprozess verstehen. Bei der Organisation ist der Kontext wichtig für Ihre Namenskonventionen, für die Art und Weise, wie Sie Beziehungen zwischen Variablen darstellen und für das, was Sie beibehalten oder weglassen. Und schließlich ist es bei Ihrer Präsentation wichtig, kontextbezogene Informationen einzubeziehen, damit Ihre Stakeholder Ihre Analyse verstehen.

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats auf Datenintegrität

Video 35

Willkommen zurück in diesem Video. Wir werden die Datenintegrität und einige Risiken besprechen, denen Sie als Datenanalyst begegnen könnten. Eine aussagekräftige Analyse hängt von der Integrität der Daten ab. Wenn die von Ihnen verwendeten Daten in irgendeiner Weise kompromittiert werden, ist Ihre Analyse nicht so aussagekräftig, wie sie sein sollte. Unter Datenintegrität versteht man die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus. Das hört sich vielleicht nach vielen Qualitäten an, denen die Daten gerecht werden müssen. Aber glauben Sie mir, es lohnt sich, sie alle zu prüfen, bevor Sie mit der Analyse fortfahren. Andernfalls könnte Ihre Analyse falsch sein, nicht weil Sie etwas falsch gemacht haben, sondern weil die Daten, mit denen Sie gearbeitet haben, von vornherein falsch waren. Wenn die Datenintegrität gering ist, kann dies vom Verlust eines einzelnen Pixels in einem Bild bis hin zu einer falschen medizinischen Entscheidung führen. In manchen Fällen kann ein einziges fehlendes Teil dazu führen, dass alle Ihre Daten unbrauchbar werden. Die Datenintegrität kann auf viele verschiedene Arten gefährdet werden. Es besteht die Möglichkeit, dass Daten jedes Mal kompromittiert werden, wenn sie repliziert, übertragen oder auf irgendeine Weise manipuliert werden. Bei der Datenreplikation handelt es sich um den Prozess der Speicherung von Daten an mehreren Orten. Wenn Sie Daten zu unterschiedlichen Zeiten an verschiedenen Orten replizieren, besteht die Möglichkeit, dass Ihre Daten nicht synchron sind. Diesen Daten mangelt es an Integrität, da verschiedene Personen möglicherweise nicht dieselben Daten für ihre Ergebnisse verwenden, was zu Inkonsistenzen führen kann. Es gibt auch das Problem der Datenübertragung, bei der Daten von einem Speichergerät in den Speicher oder von einem Computer auf einen anderen kopiert werden. Wenn Ihre Datenübertragung unterbrochen wird, erhalten Sie möglicherweise einen unvollständigen Datensatz, der für Ihre Anforderungen möglicherweise nicht nützlich ist. Bei der Datenmanipulation werden die Daten geändert, um sie besser zu organisieren und leichter lesbar zu machen. Datenmanipulation soll den Datenanalyseprozess effizienter machen, aber ein Fehler während des Prozesses kann diese Effizienz beeinträchtigen. Schließlich können Daten auch durch menschliches Versagen, Viren, Malware, Hacking und Systemausfälle kompromittiert werden, was zu noch mehr Kopfschmerzen führen kann. Ich werde hier aufhören. Das sind genug potenziell schlechte Nachrichten, die man verdauen muss. Kommen wir zu einigen möglicherweise guten Nachrichten. Und bei vielen Unternehmen kümmert sich das Data-Warehouse- oder Data-Engineering-Team um die Sicherstellung der Datenintegrität. Wir werden lernen, wie man als Datenanalyst die Datenintegrität überprüft, stellen aber zunächst sicher, dass Ihnen normalerweise jemand anderes zur Seite steht, nachdem Sie herausgefunden haben, mit welcher Art von Daten Sie arbeiten. Es ist wichtig, vor der Analyse noch einmal zu überprüfen, ob Ihre Daten vollständig und gültig sind. Dadurch wird sichergestellt, dass Ihre Analyse und eventuellen Schlussfolgerungen korrekt sind. Datenintegrität ist ein wichtiger Schritt bei der Verarbeitung Ihrer Daten, um sie für die Analyse vorzubereiten, unabhängig davon, ob Sie oder jemand anderes in Ihrem Unternehmen dies durchführt. Demnächst erfahren Sie noch mehr über Datenintegrität. Bis bald

 

Willkommen zu Modul 4

Video 36

Hallo! Ich bin Anita, Finance Senior Business Intelligence Analyst hier bei Google. Ich freue mich sehr, mit Ihnen dieses erste Video über Ihre zukünftige Business-Intelligence-Karriere zu beginnen. Das Anschauen eines Lehrvideos – wie dieses –, der Besuch eines Kurses oder das Lesen eines Artikels – alles sind großartige Möglichkeiten, neues Wissen zu erlangen. Es gibt jedoch einfach nichts Schöneres, als dieses Wissen anzuwenden. Wenn Sie tatsächlich etwas tun, hilft Ihnen das wirklich zu bestätigen, dass Sie verstehen, was Sie gelernt haben. Dieses Konzept wird als Erfahrungslernen bezeichnet, was einfach bedeutet, durch Handeln zu verstehen. Dabei geht es darum, in eine Situation einzutauchen, in der Sie das Gelernte in die Praxis umsetzen, Ihre Fähigkeiten weiterentwickeln und über Ihre Ausbildung nachdenken können. Vor einigen Jahren habe ich eine Ausbildung zur Yogalehrerin gemacht. Anfangs war es etwas einschüchternd, alle Einzelheiten jeder Pose zu lernen; Herausfinden, wie man eine wirkungsvolle Posenfolge erstellt; und schließlich die Leitung eines Yoga-Studios voller Menschen. Aber ich habe in jedem Kurs darauf geachtet, was funktioniert hat und was ich verbessern konnte. Dann habe ich darüber nachgedacht und auch viele der Lektionen aus meiner Ausbildung noch einmal aufgegriffen. Und mit jeder Unterrichtsstunde, die ich unterrichtete, half mir diese Lernerfahrung, immer besser zu werden. Experimentelles Lernen, sei es als Hobby oder beruflich, ist immer eine großartige Gelegenheit. Es verschafft Ihnen einen umfassenderen Blick auf die Welt, liefert wichtige Einblicke in Ihre besonderen Interessen und Leidenschaften und trägt zum Aufbau von Selbstvertrauen bei. Beginnen wir also damit, Ihr Abschlussprojekt zu erleben. Im Rahmen dieses Google Business Intelligence-Zertifikats erhalten Sie durch erfahrungsorientiertes Lernen die Möglichkeit, herauszufinden, wie Unternehmen BI jeden Tag nutzen. Diese Art von Aktivität kann Ihnen dabei helfen, die für Sie interessantesten Branchen und Projekte zu identifizieren und diese mit potenziellen Arbeitgebern zu besprechen. Dies kann Ihnen bei der Jobsuche wirklich dabei helfen, aus der Masse hervorzustechen. Bald werden Sie das Erfahrungslernen in die Praxis umsetzen, indem Sie an einem Abschlussprojekt arbeiten. Zur Erinnerung: Ein Portfolio ist eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können. Es ist auch eine erstaunliche Möglichkeit, Ihre Bewerbung zum Glänzen zu bringen. Portfolios können auf öffentlichen Websites oder Ihrer eigenen persönlichen Website oder Ihrem Blog gespeichert werden. Und sie können in Ihrem digitalen Lebenslauf oder einer beliebigen Online-Berufspräsenz, beispielsweise Ihrem LinkedIn-Konto, verlinkt werden. Bei dem Projekt, an dem Sie arbeiten, handelt es sich um eine BI-Fallstudie, die es Ihnen ermöglicht, alles, was Sie über BI gelernt haben, auf überzeugende und lehrreiche Weise zusammenzuführen. Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, haben Sie viel Zeit damit verbracht, an einem Portfolio zu arbeiten, um Ihr Wissen und Ihre Fähigkeiten zu präsentieren. Dies ist ein guter Zeitpunkt, diese Lektionen noch einmal durchzugehen, um sicherzustellen, dass Sie über die notwendigen Grundlagen verfügen, um ein BI-Portfolio zu erstellen, das wirkungsvoll und beeindruckend ist. Wenn Sie das Programm nicht abgeschlossen haben, möchten Sie vielleicht den Inhalt überprüfen, bevor Sie mit diesem Projekt fortfahren. Die Erstellung eines Projekts zum Abschluss des Kurses ist eine wertvolle Gelegenheit, da Unternehmen Sie während des Interviewprozesses häufig bitten, eine Fallstudie auszufüllen. Arbeitgeber verwenden diese Methode häufig, um Sie als Kandidaten zu beurteilen und Einblicke in Ihre Herangehensweise an häufige geschäftliche Herausforderungen zu erhalten. Dieses Abschlussprojekt wird Ihnen zum Erfolg verhelfen, wenn Sie bei der Bewerbung für BI-Stellen auf diese Situation stoßen. Als Nächstes werden Sie in die konkrete Fallstudie Ihres Abschlussprojekts eingeführt. Sie erhalten außerdem klare Anweisungen, die Sie befolgen müssen, um viele BI-Ergebnisse zu erstellen. Zu Beginn Ihrer Arbeit überlegen Sie, welche Kenntnisse und Fähigkeiten Sie in diesem Kurs erworben haben und wie diese auf Ihr Projekt angewendet werden können. Ich ermutige Sie, einige Notizen über Ihren Ansatz, Ihre Methoden, Systeme und Erfolge zu machen. Auf diese Weise können Sie wichtige Punkte identifizieren, die Sie einem Personalmanager mitteilen können, beispielsweise die vielen übertragbaren Fähigkeiten, die Sie erworben haben. Eine übertragbare Fähigkeit ist eine Fähigkeit oder Kompetenz, die von einem Job auf einen anderen übertragen werden kann. Die Hervorhebung Ihrer übertragbaren Fähigkeiten ist besonders wichtig, wenn Sie den Arbeitsplatz oder die Branche wechseln. Wenn Sie beispielsweise gelernt haben, wie man Kundenbeschwerden löst, während Sie als Gastgeber in einem Restaurant gearbeitet haben, könnten Sie die übertragbare Fähigkeit zur Problemlösung hervorheben, wenn Sie sich für eine Stelle im BI-Bereich bewerben. Oder vielleicht haben Sie bei Ihrer Arbeit in der Verwaltung einer gemeinnützigen Organisation gelernt, wie man Fristen einhält, sich Notizen macht und Anweisungen befolgt. Sie könnten besprechen, wie Ihre organisatorischen Fähigkeiten auf die BI-Branche übertragbar sind. Der Punkt ist: Wenn Sie in einer Rolle die Fähigkeit entwickelt haben, Probleme zu lösen oder Dinge zu organisieren, können Sie dieses Wissen überall anwenden. Es gibt alle möglichen übertragbaren Fähigkeiten, die Sie Ihrem Notizendokument hinzufügen können. Darüber hinaus hilft Ihnen dieser Prozess dabei, darüber nachzudenken, wie Sie technische Konzepte klar erklären und gleichzeitig zeigen können, wie Sie Ihr BI-Fachwissen auf alle Arten von Tools und Szenarien anwenden können. Und wenn Sie fertig sind, werden Sie es nicht mehr tun

Patrick: Seien Sie ein Kandidat Ihrer Wahl

Video 37

Ich bin Patrick Lau, ich bin Business Intelligence Manager bei Google Legal. Ich leite ein Team von fünf Analysten und wir arbeiten an Dashboards, Berichten und Abfragen für das gesamte Google-Rechtsteam. Ich habe bei Google in einer nicht-technischen Rolle angefangen. Eigentlich habe ich als Rechtsassistent in der Rechtsabteilung angefangen. In meiner ersten Rolle hatte ich viele Möglichkeiten, mit Daten zu arbeiten, weil Daten überall waren. Wir brauchten Berichte, um über Daten zu berichten und Daten zu visualisieren. Und diese Gelegenheit gab mir viele Möglichkeiten, meine Fähigkeiten weiterzuentwickeln und mit der Präsentation von Daten und Dashboards zu beginnen. Bei Google habe ich etwa 40 Vorstellungsgespräche geführt, alle für BI-Analystenpositionen. Normalerweise suche ich nach Kandidaten, die über ein starkes unternehmerisches Urteilsvermögen verfügen, die in der Lage sind, eine Empfehlung abzugeben, um Lösungen zu finden und dafür Daten zu nutzen. Als Personalmanager sehe ich viele Lebensläufe, und manchmal ähneln sie sich. Was mich jedoch wirklich begeistert, ist, wenn ein Kandidat ein Portfolio beifügt, und nicht viele Bewerber ein Portfolio beifügen. Was mich beim Anblick eines Portfolios begeistert, ist, dass ich über einen einseitigen Lebenslauf hinausschaue und sehe, welche Art von Arbeit sie leisten können. Die Art von Leidenschaft, die sie für Daten haben, einfach nur, ihre Stimme zu hören, das ist es, was mir wirklich hilft, einen Kandidaten kennenzulernen. Die Portfolios, die ich wirklich gerne sehe, sind nicht nur eine Reihe von Dashboards. Ich schaue mir eigentlich sehr gerne ein Video an, vielleicht auf YouTube oder aufgenommen auf einer anderen Videoplattform, denn so kann ich eine Geschichte von Anfang bis Ende sehen. Ich genieße es wirklich, ihre Folien zu sehen oder zu sehen, wie sie durch ein Dashboard gehen, auf verschiedene Widgets klicken und ihre Trends zeigen. Das Erzählen einer solchen Geschichte hilft mir wirklich, mich zu verloben. Ich finde solche Portfolios viel interessanter als nur, hey, hier sind ein paar Links, sie klicken darauf und schauen es sich selbst an. Kandidaten, die zum ersten Mal ein Portfolio erstellen, empfehle ich wirklich, es einfach zu halten. Gehen Sie davon aus, dass der Personalmanager nur ein paar Minuten damit verbringt, Ihr Dashboard, Ihre Berichte oder Abfragen durchzusehen. Denken Sie über die Botschaft nach, die Sie ihnen mitteilen möchten. Die Aktionen oder Empfehlungen, die Sie haben, sollten wirklich sehr schnell und sehr deutlich hervorstechen. Denken Sie nicht zu viel darüber nach, einen Personalchef zu beeindrucken. Für mich ist es wirklich wichtig, zu sehen, welche Empfehlung Sie aussprechen und wie Sie mit Ihren Daten das Geschäft beeinflussen möchten. Als Personalmanager würde ich sagen, dass ich wirklich möchte, dass jeder erfolgreich ist. Ich möchte, dass du Erfolg hast. Sie gehören zur BI-Branche. Wir brauchen Sie, wir brauchen mehr Menschen mit einzigartigen Karrierewegen und einzigartigen Erfahrungen. So bauen wir eine vielfältigere Branche auf. So können wir unsere Fähigkeiten wirklich steigern und Innovationen hervorbringen.

Einführung in Ihr Abschlussprojekt

Video 38

Wenn Kandidaten hier bei Google Bewerbungsgespräche führen, schauen sich meine Kollegen aus den Bereichen People Operations und Human Resources gerne ihre Online-Portfolios an. Sie haben oft mehr Vertrauen in Kandidaten, die ihr Wissen in einem klaren und überzeugenden Format unter Beweis stellen können. Und wenn sie Portfolios von Leuten überprüfen, die sich Teams wie meinem anschließen möchten, sind Dashboards im Bereich Business Intelligence besonders hilfreich, weil sie optisch ansprechend, aber auch unkompliziert und einfach zu verwenden und zu verstehen sind. Deshalb achten wir gemeinsam mit den Personalmanagern sowohl auf den Inhalt als auch darauf, wie das Dashboard organisiert und gestaltet ist, um zu verstehen, wie viel Wert auf die Benutzererfahrung gelegt wurde. Ein Portfolio ist im Business-Intelligence-Bereich mittlerweile weit verbreitet. Bei einer Jobsuche ist es äußerst wertvoll, Ihr BI-Wissen, Ihre Erfahrung mit der BI-Toolbox und einige der interessanten Projekte, an denen Sie gearbeitet haben, zu präsentieren. Ihr Portfolio kann Ihnen wirklich dabei helfen, sich von anderen Kandidaten abzuheben. Bisher haben Sie in diesem Kurs viele Kenntnisse und berufstaugliche Fähigkeiten erworben, die Ihnen zum Erfolg in der BI verhelfen. Sie haben die Rolle von BI-Experten innerhalb einer Organisation sowie typische Karrierewege kennengelernt. Sie haben die wichtigsten BI-Praktiken und -Tools kennengelernt – und miterlebt, wie BI-Experten sie nutzen, um eine positive Wirkung zu erzielen. All diese Dinge werden Ihnen dabei helfen, Ihr Abschlussprojekt erfolgreich abzuschließen. Darüber hinaus wenden Sie an, was Sie über Teammitglieder, Stakeholder und Kunden gelernt haben, beispielsweise über deren besondere Rollen oder Prioritäten. Dabei stellen Sie sicher, dass die von Ihnen ausgewählten Kennzahlen relevant und effektiv sind. Und Sie wenden Ihr bisheriges Wissen über die Definition einer Strategie und die Erfassung von Stakeholder- und Projektanforderungen an. Sie beginnen mit der Lektüre der konkreten Fallstudie. In dieser Lektüre werden die Art der Organisation, mit der Sie zusammenarbeiten, die beteiligten Personen, das zu lösende Geschäftsproblem und andere wichtige Details erläutert. Sie werden ein Stakeholder-Anforderungsdokument ausfüllen und dabei die von Ihrem Kunden bereitgestellten Informationen verwenden. Auf diese Weise können Sie das Geschäftsproblem weiter definieren, die Stakeholder verstehen und wichtige Fragen berücksichtigen, die es zu beantworten gilt, um ein erfolgreiches Ergebnis zu erzielen. Anschließend erstellen Sie ein Projektanforderungsdokument mit Informationen zum Zweck des Projekts, wichtigen Abhängigkeiten, Erfolgskriterien und mehr. Abschließend planen Sie sorgfältig Ihre Herangehensweise an die Beispielsituation, damit Sie auf die Entwicklung einer effektiven Lösung vorbereitet sind. Wie Sie erfahren haben, enthält das Projektanforderungsdokument den Zweck des Projekts. sein Publikum; und wichtige Dashboard-Funktionen und -Anforderungen, einschließlich Metriken und Diagrammen, die das Dash enthalten sollte. In späteren Kursen arbeiten Sie dann weiter an Ihrem Abschlussprojekt. Und wenn Sie fertig sind, haben Sie etwas entworfen, mit dem Sie Personalmanager wirklich, wirklich beeindrucken können. Darüber hinaus verfügen Sie über ein BI-Prozessdokument, das Ihren Denkprozess, Ihre Herangehensweise an das Geschäftsproblem, die von Ihnen erworbenen Schlüsselkompetenzen und vieles mehr demonstriert. Das sind alles tolle Dinge, über die man während eines Vorstellungsgesprächs sprechen kann. Also gut, fangen wir an. Es ist an der Zeit herauszufinden, wie Sie einem Unternehmen dabei helfen können, in der spannenden Welt der Business Intelligence voranzukommen.

Projekteinführung am Ende des Kurses

Willkommen zum Abschlussprojekt!

Herzlichen Glückwunsch zu Ihrem Fortschritt beim Google Business Intelligence-Zertifikat! Das letzte Modul jedes Kurses umfasst ein Abschlussprojekt, das praktische Übungen und die Möglichkeit bietet, Ihr BI-Wissen unter Beweis zu stellen. Die Projekte werden immer komplexer, genau wie die beruflichen Aufgaben, denen Sie als BI-Experte begegnen. Nach Abschluss aller Kurse und Projekte verfügen Sie über ein Portfolio, das Sie potenziellen Arbeitgebern zur Verfügung stellen können.

Bedeutung der Kommunikation im BI-Karrierebereich

Zusätzlich zu den technischen und organisatorischen Fähigkeiten, die für die Durchführung von Projekten am Ende des Kurses erforderlich sind, müssen Sie effektive Kommunikationsfähigkeiten üben. Um Sie vorzubereiten, müssen Sie für jedes Projekt Folgendes tun: 

  • Sammeln Sie Informationen über das zu lösende Geschäftsproblem oder die zu beantwortende Frage

  • Vervollständigen Sie wichtige BI-Dokumente, einschließlich der Stakeholder-Anforderungen, Projektanforderungen und Strategiedokumente

  • Definieren Sie Teammitglieder

  • Verstehen Sie Zeit- und Budgetanforderungen

  • Identifizieren Sie Kennzahlen und KPIs

  • Wissen, wie man Erfolg misst

  • Heben Sie Ihre übertragbaren Fähigkeiten hervor

Erwartungen

Sie erhalten die Werkzeuge, Ressourcen und Anweisungen, die Sie benötigen, um Ihre neuen Fähigkeiten anzuwenden und jedes Projekt am Ende des Kurses abzuschließen. Sie haben außerdem Zugriff auf durchdachte Fragen und hilfreiche Ressourcen, die Ihren Datenanalyse-Workflow leiten und inspirieren sollen. Am Ende wird Ihr Einsatz mit Arbeitsbeispielen belohnt, die die Wirksamkeit Ihrer BI-Kenntnisse unter Beweis stellen. Sie umfassen Designmuster; Schemata; Rohrleitungen; Dashboard-Modelle; Datenvisualisierungen; und schließlich echte BI-Dashboards! Wenn Sie einmal nicht weiterkommen, finden Sie in jedem Kurs Links, mit denen Sie relevante Informationen durchsehen können.

Ihr Abschlussprojekt wird nicht benotet, aber Sie haben Zugriff auf Beispielergebnisse, die Sie mit Ihrer eigenen Arbeit vergleichen können, um sicherzustellen, dass Ihr Projekt erfolgreich ist. Im Gegensatz zu anderen Aktivitäten sind die Projektaktivitäten am Ende des Kurses weniger angeleitet, sodass Sie Ihr Wissen testen und das Gelernte in die Praxis umsetzen können. Unterwegs empfehlen wir Ihnen dringend, an den Diskussionsforen teilzunehmen, um mit Lernenden zu chatten, die an ihren eigenen Fallstudien arbeiten, Strategien auszutauschen, Fragen zu stellen und sich gegenseitig zu ermutigen! Bitte beachten Sie, dass es angebracht ist, allgemeine Projektstrategien zu teilen, jedoch keine spezifischen Schritte, Prozesse oder Dokumente. 

Starten Sie Ihr Projekt

In Ihrem Projekt zum Abschluss des Kurses 1 werden Sie:

  • Überprüfen Sie relevantes Projektmaterial von Stakeholdern, um die wichtigsten Anforderungen zu ermitteln

  • Entwickeln Sie Projektanforderungsdokumente, um sie an den Bedürfnissen der Stakeholder auszurichten und die Projektplanung zu leiten

Die zentralen Thesen

Die Projekte am Ende des Kurses ermöglichen es Ihnen, Ihre neuen BI-Fähigkeiten und Kenntnisse anzuwenden, potenziellen Arbeitgebern grundlegende BI-Kenntnisse zu demonstrieren und zu präsentieren, was Sie durch das Google Business Intelligence-Zertifikat gelernt haben. Ein Portfolio, das Sie bei Vorstellungsgesprächen teilen können, ist eine bewährte Möglichkeit, ein wettbewerbsfähiger BI-Kandidat zu werden. Außerdem investieren Sie viel Zeit und Mühe in das Programm, so dass der Abschluss dieses Projekts eine große Feier Ihrer Lernerfolge sein wird!

Entwerfen Sie wirkungsvolle Executive Summarys

Business-Intelligence-Experten benötigen Möglichkeiten, Pläne, Aktualisierungen und Zusammenfassungen von Projekten auszutauschen und zu kommunizieren. Ein allgemeines Dokument namens Executive Summary wird verwendet, um Entscheidungsträger, die möglicherweise nicht direkt an den Aufgaben eines Projekts beteiligt sind, auf dem Laufenden zu halten. In Ihrer Rolle als BI-Experte sind Sie häufig an der Erstellung von Executive Summarys beteiligt. 

Darüber hinaus kann eine Zusammenfassung eine nützliche Möglichkeit sein, potenziellen Arbeitgebern Ihr Abschlussprojekt zu beschreiben. Dieses Dokument kann Interviewern, die Ihr Portfolio erkunden, eine leicht verständliche Erklärung Ihrer Projekte geben und eine nützliche Möglichkeit sein, während des eigentlichen Interviews auf Ihre Projekte zu verweisen. 

In dieser Lektüre erfahren Sie mehr über Executive Summarys und wie Sie diese für Stakeholder aufbereiten. Am Ende Ihres Projekts füllen Sie eine Zusammenfassung der von Ihnen abgeschlossenen Arbeit aus – daher ist es sinnvoll, jetzt darüber nachzudenken, wie Sie an dieses Dokument herangehen. 

Zusammenfassungen

Executive Summarys sind Dokumente, die die wichtigsten Punkte eines längeren Plans oder Berichts zusammenfassen. Diese Zusammenfassungen sind in einer Vielzahl von Unternehmen üblich und geben Entscheidungsträgern einen kurzen Überblick über die relevantesten Informationen. Sie können auch verwendet werden, um neuen Teammitgliedern zu helfen, sich schnell mit den Details eines Projekts vertraut zu machen. Das Format soll die Verantwortung von Entscheidungsträgern und/oder Führungskräften respektieren, die möglicherweise nicht die Zeit haben, einen gesamten Bericht zu lesen und zu verstehen. Es gibt viele Möglichkeiten, Informationen in einer Zusammenfassung darzustellen, einschließlich speziell für diesen Zweck entwickelter Softwareoptionen. In diesem Programm konzentrieren Sie sich hauptsächlich auf ein einseitiges Format innerhalb einer Präsentationsfolie. Unabhängig davon, wie sie erstellt werden, gibt es einige Elemente, die häufig enthalten sind.

Elemente einer Zusammenfassung

Die bereitgestellte Beispielzusammenfassung befasst sich mit einem imaginären Projekt zur Vorhersagbarkeit von Waldbränden. Die Zielgruppe dieser Zusammenfassung ist eine Gruppe von Entscheidungsträgern aus vielen verschiedenen Abteilungen in Teams, die eine Vielzahl von Parks betreuen. Der Zweck dieser Zusammenfassung besteht darin, die Erkenntnisse zu teilen, die durch die Datenanalyse von Waldbränden in den USA gewonnen wurden. Jeder Abschnitt liefert eine kurze Aussage ohne Ausschmückung. Dies gibt Entscheidungsträgern, die oft wenig Zeit haben, die Möglichkeit, schnell die wichtigsten Punkte eines Projekts zu erfassen. Verweisen Sie auf dieses Dokument, wenn Sie die folgenden Abschnitte lesen.

Nachfolgend finden Sie eine Beispielzusammenfassung für ein geplantes Projekt zur Vorhersagbarkeit von Waldbränden. 

Um auf die Beispielzusammenfassung zuzugreifen, klicken Sie auf den Link unten und wählen Sie „Vorlage verwenden“. 

Link zur Beispielzusammenfassung:Zusammenfassung des Projekts zur Vorhersage von Waldbränden

ODER

Wenn Sie kein Google-Konto haben, können Sie die Datei direkt aus dem Anhang unten herunterladen.

 
Zusammenfassung des Projekts zur Vorhersage von Waldbränden
PPTX-Datei

Projekttitel: Das Thema eines Projekts wird in den Titel der Zusammenfassung integriert, um eine unmittelbare Verbindung mit der Zielgruppe herzustellen.

Das Problem: Eine Aussage, die sich auf den Bedarf oder das Anliegen konzentriert, auf das das Projekt abzielt oder das es anspricht. Beachten Sie außerdem, dass das Problem auch als die Hypothese bezeichnet werden kann, die Sie durch Analyse zu beweisen versuchen. 

Die Lösung: Diese Aussage fasst das Hauptziel eines Projekts zusammen. In diesem Abschnitt werden Maßnahmen beschrieben, die darauf abzielen, die in der Problemstellung dargelegten Bedenken auszuräumen.

Details/Wichtige Erkenntnisse: Der Zweck dieses Abschnitts besteht darin, zusätzliche Hintergrundinformationen und Informationen bereitzustellen, die der Zielgruppe dabei helfen können, die Ziele des Projekts zu verstehen. Die Entscheidung, welche Details enthalten sein sollen, hängt stark von der Zielgruppe ab. Es kann auch sein, dass Sie sich dafür entscheiden, einige Projektreflexionen einzubeziehen. 

Die zentralen Thesen

Executive Summarys sind wichtige Möglichkeiten, Informationen mit Entscheidungsträgern, Kunden und Führungskräften zu teilen. Diese Dokumente enthalten eine zusammengefasste Version der wichtigsten Informationen innerhalb eines Projekts oder Aktionsplans. Die Zusammenfassung ist in der Regel umfassender und konzentriert sich nicht auf bestimmte Verantwortlichkeiten oder Aufgaben. Die Zusammenfassung fasst den Status eines Projekts und seiner Entdeckungen zusammen, beschreibt ein Problem und schlägt eine Lösung vor.

Entdecken Sie Projektszenarien am Ende des Kurses 1

Wenn Sie mit strukturiertem Denken an ein Projekt herangehen, werden Sie häufig feststellen, dass bestimmte Schritte in einer bestimmten Reihenfolge ausgeführt werden müssen. Die Abschlussprojekte im Google Business Intelligence-Zertifikat wurden unter diesem Gesichtspunkt konzipiert. Die in jedem Kurs vorgestellten Herausforderungen stellen einen einzelnen Meilenstein innerhalb eines gesamten Projekts dar, basierend auf den in diesem Kurs erlernten Fähigkeiten und Konzepten. 

Grafik, die die drei Phasen des Abschlussprojekts beschreibt: Projektplanung, Datenvorbereitung und Dashboard-Design

Das Zertifikatsprogramm ermöglicht es Ihnen, aus verschiedenen Arbeitsplatzszenarien zu wählen, um die Abschlussprojekte abzuschließen: das Fahrradverleihunternehmen Cyclistic oder Google Fiber. Jedes Szenario bietet Ihnen die Möglichkeit, Ihre Fähigkeiten zu verfeinern und Artefakte zu erstellen, die Sie in einem Online-Portfolio auf dem Arbeitsmarkt teilen können. 

Unabhängig davon, für welches Szenario Sie sich entscheiden, erlernen Sie ähnliche Fähigkeiten, müssen jedoch für jeden Kurs mindestens ein Abschlussprojekt abschließen, um Ihr Google Business Intelligence-Zertifikat zu erhalten. Um ein zusammenhängendes Erlebnis zu gewährleisten, wird empfohlen, für jedes Abschlussprojekt das gleiche Szenario zu wählen. Wenn Sie sich zum Beispiel für das Radfahr-Szenario für Kurs 1 entscheiden, empfehlen wir Ihnen, dasselbe Szenario auch für Kurs 2 und 3 zu absolvieren. Wenn Sie jedoch an mehr als einem Arbeitsplatzszenario interessiert sind oder sich eine größere Herausforderung wünschen, können Sie gerne mehr als ein Abschlussprojekt durchführen. Durch den Abschluss mehrerer Projekte erhalten Sie zusätzliche Übungen und Beispiele, die Sie potenziellen Arbeitgebern mitteilen können.

Projektszenarien am Ende des Kurses 1

Fahrrad-Sharing

Radfahrer-Logo

Hintergrund: 

In diesem fiktiven Arbeitsplatzszenario hat sich das imaginäre Unternehmen Cyclistic mit der Stadt New York zusammengetan, um gemeinsam genutzte Fahrräder bereitzustellen. Derzeit gibt es in ganz Manhattan und den angrenzenden Bezirken Fahrradstationen. Kunden können an diesen Standorten Fahrräder mieten, um bequem zwischen den Stationen hin- und herzufahren. 

Szenario:

Sie sind ein neu eingestellter BI-Experte bei Cyclistic. Das Kundenwachstumsteam des Unternehmens erstellt einen Geschäftsplan für das nächste Jahr. Sie möchten verstehen, wie ihre Kunden ihre Fahrräder nutzen. Ihre oberste Priorität besteht darin, die Kundennachfrage an verschiedenen Bahnhofsstandorten zu ermitteln.

Herausforderung für Kurs 1:

  • Sammeln Sie Informationen aus Notizen, die Sie bei der letzten Vorstandssitzung von Cyclistic gemacht haben 

  • Identifizieren Sie relevante Stakeholder für jede Aufgabe

  • Organisieren Sie Aufgaben in Meilensteine

  • Vervollständigen Sie Projektplanungsdokumente, um sie mit den Interessengruppen abzustimmen

Hinweis: Die Geschichte sowie alle dargestellten Namen, Charaktere und Vorfälle sind frei erfunden. Eine Identifizierung mit tatsächlichen Personen (lebend oder verstorben) ist nicht beabsichtigt oder sollte abgeleitet werden. Die in diesem Projekt geteilten Daten wurden für pädagogische Zwecke erstellt.

Google Fiber

Google Fibre-Logo

Hintergrund: 

Google Fiber versorgt Menschen und Unternehmen mit Glasfaser-Internet. Derzeit beantwortet das Kundendienstteam in seinen Callcentern Anrufe von Kunden in seinen etablierten Servicegebieten. In diesem fiktiven Szenario möchte das Team Trends bei wiederholten Anrufen untersuchen, um die Anzahl der Anrufe von Kunden zu reduzieren, damit ein Problem gelöst werden kann. 

Szenario:

Sie führen derzeit ein Vorstellungsgespräch für eine BI-Stelle im Callcenter-Team von Google Fibre. Im Rahmen des Interviewprozesses werden Sie gebeten, ein Dashboard-Tool zu entwickeln, das es ihnen ermöglicht, Trends bei wiederholten Anrufen zu erkunden. Das Team muss verstehen, wie oft Kunden nach ihrer ersten Anfrage den Kundendienst anrufen. Dies wird der Führung helfen, zu verstehen, wie effektiv das Team Kundenfragen beim ersten Mal beantworten kann.

Herausforderung für Kurs 1:

  • Sammeln Sie Informationen aus Notizen, die Sie während Ihres Interviews mit Google Fibre gemacht haben

  • Identifizieren Sie relevante Stakeholder für jede Aufgabe

  • Organisieren Sie Aufgaben in Meilensteine

  • Vervollständigen Sie Projektplanungsdokumente, um sie mit den Interessengruppen abzustimmen

Die zentralen Thesen

In Kurs 1, Grundlagen der Business Intelligence, haben Sie die Welt der BI-Experten erkundet und erfahren, wie BI zur Vision eines Unternehmens beiträgt.

Fähigkeiten in Kurs 1:

  • Üben Sie effektive Kommunikation

  • Verstehen Sie die funktionsübergreifende Teamdynamik

  • Führen Sie ein effektives Projektmanagement durch

  • Teilen Sie Erkenntnisse und Ideen mit Stakeholdern

Ergebnisse des Abschlussprojekts von Kurs 1: 

  • Drei BI-Projektplanungsdokumente

Sie haben die Möglichkeit, die Szenarien detaillierter zu erkunden, indem Sie die Übersichtslesungen zu den Arbeitsplatzszenarien lesen. Nachdem Sie die Übersichten gelesen haben, wählen Sie aus, welches Arbeitsplatzszenario für Sie am interessantesten ist!

Überblick über das Arbeitsplatzszenario von Kurs 1: Radfahrer

Erfahren Sie mehr über das Arbeitsplatzszenario

Das Abschlussprojekt dient dazu, dass Sie Ihre Fähigkeiten in einem Arbeitsplatzszenario üben und anwenden. Egal für welches Szenario Sie sich entscheiden, Sie diskutieren und kommunizieren über Datenanalysethemen mit Kollegen, internen Teammitgliedern und externen Kunden. Sie müssen nur eines der Szenarios befolgen, um das Abschlussprojekt abzuschließen. Lesen Sie weiter, um mehr über das fiktive Fahrradverleihunternehmen Cyclistic zu erfahren. Wenn Sie stattdessen das Google Fibre-Projekt erkunden möchten, gehen Sie zuDie Lektüre, die einen Überblick über dieses Arbeitsplatzszenario bietet. Zur Erinnerung: Sie müssen nur eines dieser Szenarios durcharbeiten, um das Kursabschlussprojekt abzuschließen. Bei Bedarf können Sie aber auch mehrere abschließen. 

Grafik, die die erste Phase des Cyclistic-Projekts beschreibt: Projektplanung

Willkommen bei Cyclistic! 

Herzlichen Glückwunsch zu Ihrem neuen Job im Business-Intelligence-Team von Cyclistic, einem fiktiven Bike-Sharing-Unternehmen in New York City. Um Ihrem Team sowohl BI-Geschäftswert als auch organisatorische Datenreife zu bieten, nutzen Sie Ihr Wissen über die BI-Phasen: Erfassung, Analyse und Überwachung. Wenn Sie fertig sind, verfügen Sie über ein Abschlussprojekt, das potenziellen Arbeitgebern Ihr Wissen und Ihre Fähigkeiten demonstriert.

Ihre Besprechungsnotizen

Sie haben kürzlich an einem Treffen mit wichtigen Interessenvertretern teilgenommen, um Einzelheiten zu diesem BI-Projekt zu erfahren. Bei den folgenden Angaben handelt es sich um Ihre Notizen aus der Besprechung. Verwenden Sie die darin enthaltenen Informationen, um das Stakeholder-Anforderungsdokument, das Projektanforderungsdokument und das Planungsdokument auszufüllen. Weitere Hinweise finden Sie imvorherige Lektüre der Dokumente und das  Selbstüberprüfung, bei der sie abgeschlossen wurden.

Hintergrund des Projekts:

Primärer Datensatz:NYC Citi-Fahrradausflüge

Sekundärer Datensatz:US-Grenzen des Census Bureau

Cyclistic hat sich mit der Stadt New York zusammengetan, um gemeinsam genutzte Fahrräder anzubieten. Derzeit gibt es in ganz Manhattan und den angrenzenden Bezirken Fahrradstationen. Kunden können an diesen Standorten Fahrräder mieten, um bequem zwischen den Stationen zu reisen.

Das Customer Growth Team von Cyclistic erstellt einen Geschäftsplan für das nächste Jahr. Das Team möchte verstehen, wie seine Kunden ihre Fahrräder nutzen; Ihre oberste Priorität besteht darin, die Kundennachfrage an verschiedenen Bahnhofsstandorten zu ermitteln.

Cyclistic hat Datenpunkte für jede Fahrt seiner Kunden erfasst, darunter:

  • Startzeit und -ort der Reise (Stationsnummer sowie Breiten- und Längengrad)

  • Uhrzeit und Ort des Reiseendes (Stationsnummer sowie Breiten- und Längengrad)

  • Die Identifikationsnummer des gemieteten Fahrrads

  • Die Art des Kunden (entweder ein Einmalkunde oder ein Abonnent)

Der Datensatz umfasst Millionen von Fahrten, daher möchte das Team ein Dashboard, das wichtige Erkenntnisse zusammenfasst. Geschäftspläne, die auf Kundenerkenntnissen basieren, sind erfolgreicher als Pläne, die nur auf internen Beobachtungen der Mitarbeiter basieren. Die Zusammenfassung muss wichtige Datenpunkte enthalten, die zusammengefasst und aggregiert werden, damit das Führungsteam eine klare Vorstellung davon erhält, wie Kunden Cyclistic nutzen.

Stakeholder: 

  • Sara Romero, Vizepräsidentin, Marketing

  • Ernest Cox, Vizepräsident, Produktentwicklung

  • Jamal Harris, Direktor, Kundendaten

  • Nina Locklear, Direktorin, Beschaffung

Teammitglieder: 

  • Adhira Patel, API-Strategin

  • Megan Pirato, Data Warehousing-Spezialistin

  • Rick Andersson, Manager, Data Governance

  • Tessa Blackwell, Datenanalystin

  • Brianne Sand, Direktorin, IT

  • Shareefah Hakimi, Projektmanagerin

*Hauptkontakte sind Adhira, Megan, Rick und Tessa. 

Per Sara: Das Dashboard muss zugänglich sein, mit Großdruck- und Text-to-Speech-Alternativen.

Projektgenehmigungen und Abhängigkeiten:

Die Datensätze umfassen Kundendaten (Benutzerdaten), die Jamal genehmigen muss. Außerdem muss das Projekt möglicherweise von den Teams genehmigt werden, die über bestimmte Produktdaten verfügen, einschließlich der Dauer der Radtour und der Fahrradidentifikationsnummern. Daher muss ich sicherstellen, dass die Beteiligten Datenzugriff auf alle Datensätze haben.

Projektziel: Den Kundenstamm von Cyclistic vergrößern

Details von Frau Romero:

  • Verstehen Sie, was Kunden wollen, was ein erfolgreiches Produkt ausmacht und wie neue Stationen die Nachfrage in verschiedenen geografischen Gebieten lindern können.

  • Verstehen Sie, wie die aktuelle Fahrradlinie verwendet wird.

  • Wie können wir Erkenntnisse über die Kundennutzung nutzen, um das Wachstum neuer Sender zu informieren?

  • Das Kundenwachstumsteam möchte verstehen, wie verschiedene Benutzer (Abonnenten und Nicht-Abonnenten) unsere Fahrräder nutzen. Wir möchten eine große Gruppe von Benutzern untersuchen, um eine faire Darstellung der Benutzer über Standorte hinweg und mit niedrigem bis hohem Aktivitätsniveau zu erhalten.

  • Bedenken Sie, dass Benutzer Cyclistic bei schlechtem Wetter möglicherweise weniger nutzen. Dies sollte im Dashboard sichtbar sein.

   Die Ergebnisse und Kennzahlen:

  • Eine Tabellen- oder Kartenvisualisierung, die die Standorte der Start- und Endstationen erkundet, aggregiert nach Standort. Ich kann jede Ortskennung verwenden, z. B. Bahnhof, Postleitzahl, Nachbarschaft und/oder Bezirk. Hier sollte die Anzahl der Fahrten an den Startorten angezeigt werden.

  • Eine Visualisierung, die basierend auf den Gesamtfahrminuten zeigt, welche Zielorte (Endorte) beliebt sind.

    • Tipp: Konzentrieren Sie sich auf die Hauptmonate.

  • Eine Visualisierung, die sich auf Trends aus dem Sommer 2015 konzentriert.

  • Eine Visualisierung, die das prozentuale Wachstum der Anzahl der Fahrten im Jahresvergleich zeigt.

  • Sammeln Sie Erkenntnisse über Staus an Bahnhöfen.

    • Tipp: Berechnen Sie für jeden Tag per Tabellenkalkulation das Netto aus Anfangs- und Endfahrten pro Station. Dies gibt einen Näherungswert dafür, ob mehr Fahrräder an einer Station ein- oder ausgehen.

  • Sammeln Sie Erkenntnisse über die Anzahl der Fahrten an allen Start- und Zielorten.

  • Sammeln Sie Erkenntnisse über die Spitzenauslastung nach Tageszeit, Jahreszeit und den Auswirkungen des Wetters.

*Dashboard muss in 6 Wochen erstellt werden!

Erfolg messen:

Analysieren Sie Daten, die sich über mindestens ein Jahr erstrecken, um zu sehen, wie sich Saisonalität auf die Nutzung auswirkt. Durch die Untersuchung von Daten, die sich über mehrere Monate erstrecken, werden Spitzen und Täler der Nutzung erfasst. Bewerten Sie jede Fahrt anhand der Anzahl der Fahrten pro Startort und pro Tag/Monat/Jahr, um Trends zu verstehen. Nutzen Kunden beispielsweise Cyclistic weniger, wenn es regnet? Oder bleibt die Bikeshare-Nachfrage konstant? Unterscheidet sich dies je nach Standort und Benutzertyp (Abonnenten vs. Nicht-Abonnenten)? Nutzen Sie diese Ergebnisse, um mehr darüber herauszufinden, welche Auswirkungen die Kundennachfrage hat.

Weitere Überlegungen:

Der Datensatz umfasst Breiten- und Längengrade von Stationen, identifiziert jedoch keine weiteren geografischen Aggregationsdetails wie Postleitzahl, Nachbarschaftsname oder Bezirk. Das Team wird eine separate Datenbank mit diesen Daten bereitstellen. 

In den bereitgestellten Wetterdaten ist nicht enthalten, wann der Niederschlag eingetreten ist. Es ist möglich, dass es an manchen Tagen außerhalb der Hauptverkehrszeiten regnete. Für die Zwecke dieses Dashboards sollte ich jedoch davon ausgehen, dass jede Niederschlagsmenge, die am Tag der Reise aufgetreten ist, einen Einfluss haben könnte.

Wenn an einer Station keine Fahrräder verfügbar sind, ist es nicht möglich, Radtouren an einem Ort zu starten. Daher müssen wir möglicherweise andere Faktoren für die Nachfrage berücksichtigen.

Schließlich dürfen die Daten keine personenbezogenen Daten (Name, E-Mail, Telefonnummer, Adresse) enthalten. Persönliche Daten sind für dieses Projekt nicht erforderlich. Anonymisieren Sie Benutzer, um Voreingenommenheit zu vermeiden und ihre Privatsphäre zu schützen. 

Personen mit Dashboard-Anzeigeberechtigungen: 

Adhira, Brianne, Ernest, Jamal, Megan, Nina, Rick, Shareefah, Sara, Tessa

Ausrollen:

  • Woche 1: Datensatz zugewiesen. Ursprüngliches Design für Felder und BikeIDs, validiert, um den Anforderungen zu entsprechen.

  • Wochen 2–3: SQL- und ETL-Entwicklung

  • Woche 3–4: SQL abschließen. Dashboard-Design. Überprüfung des ersten Entwurfs mit Kollegen.

  • Wochen 5–6: Dashboard-Entwicklung und -Tests

Fragen:

  • Wie wurden Fahrräder von unseren Kunden genutzt?

  • Wie können wir Erkenntnisse aus den durch Reisedaten generierten Daten nutzen?

Nächste Schritte

Nehmen Sie sich beim Vervollständigen der wichtigsten BI-Dokumente mithilfe dieser Notizen die Zeit, Folgendes zu bedenken:

  • So organisieren Sie die verschiedenen Punkte und Schritte

  • So gruppieren Sie ähnliche Themen

  • Ob die Informationen für das Projekt relevant sind

  • Ob die Metriken effektiv sind oder nicht

Bedenken Sie schließlich, dass dieses Projekt nicht benotet wird. Ein überzeugendes Projekt ermöglicht es Ihnen jedoch, potenziellen Arbeitgebern grundlegende BI-Kenntnisse zu demonstrieren. Nachdem Sie die Dokumente ausgefüllt haben, vergleichen Sie sie unbedingt mit den Beispielleistungen. Sie können auch die Schritte aufzeichnen, die Sie zum Abschluss jeder Phase dieses Projekts unternommen haben, damit Sie die Zusammenfassung vervollständigen können. Dies ist wichtig, wenn Sie in den folgenden Kursen weiter an dem Projekt arbeiten. 

Projektrückblick am Ende des Kurses

Video 39

Sie haben den ersten Teil des Business-Intelligence-Abschlussprojekts abgeschlossen. Glückwunsch! Die Planung und Dokumentation Ihrer Herangehensweise an die Beispielsituation ist eine wertvolle Erfahrung, wenn Sie über Ihre zukünftige Jobsuche nachdenken. Bald können Sie Personalmanager beeindrucken, indem Sie Ihre BI-Erfahrung besprechen, einschließlich des Verständnisses von Stakeholder-Anfragen, der Erstellung eines klaren und unkomplizierten Projektplans und der Erstellung eines effektiven Strategiedokuments. Darüber hinaus erfahren Sie, wie Sie alles, was Sie über die Identifizierung relevanter Kennzahlen und KPIs wissen, weitergeben können. Dies ist ein großer Teil des BI-Prozesses. Außerdem ist es, wie Sie gelernt haben, äußerst hilfreich, mit potenziellen Arbeitgebern über Ihre übertragbaren Fähigkeiten zu sprechen. Die Informationen, die Sie Ihren BI-Notizen hinzugefügt haben, werden bei Vorstellungsgesprächen äußerst nützlich sein. Der nächste Schritt in Ihrem Abschlussprojekt erfolgt am Ende des nächsten Kurses. An diesem Punkt werden Sie die hier entwickelten Assets verwenden, um mit der Erstellung Ihrer Lösung fortzufahren. Am Ende des Programms bringen Sie dann alles zusammen, um Ihren einzigartigen Ansatz für diese Beispielsituation zu finalisieren. Bedenken Sie: Ihre Dokumente werden nicht ganz so aussehen wie das Vorbild, aber sie sollten die gleichen Ziele erreichen. Sie können jederzeit gerne noch einmal zurückgehen und überprüfen, was Sie erstellt haben, damit Sie bei der weiteren Durchführung dieses Programms für den Erfolg gerüstet sind. Das Ziel besteht darin, ein hervorragendes Beispiel Ihrer Arbeit zu haben, das potenziellen Arbeitgebern deutlich zeigt, wie kompetent Sie sind. Glückwunsch nochmals! Und ich hoffe, dass Sie bei der Arbeit an dem Projekt während dieses Programms eine lohnende Erfahrung machen werden.

Glossarbegriffe aus Modul 4

Erfahrungsbasiertes Lernen: Verstehen durch Handeln

Übertragbare Fähigkeit: Eine Fähigkeit oder Kompetenz, die von einem Job auf einen anderen übertragen werden kann

Begriffe und ihre Definitionen aus vorherigen Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholdern die Möglichkeit zu geben, wirkungsvolle Geschäftsentscheidungen zu treffen

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Datenverfügbarkeit: Der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

UND

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

ICH

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

M

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

S

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

T

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

IN

Vanity-Metrik: Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können

Kursabschluss

Video 40

Herzlichen Glückwunsch zum Abschluss dieses ersten Kurses des Google Business Intelligence-Zertifikats. Sie haben bereits so viel gelernt und sind nun bereit, Ihr Wissen und Ihre Fähigkeiten zu nutzen und weiter voranzukommen. Aber denken Sie daran: Wenn Sie eines Tages das Gefühl haben, dass Sie eine Auffrischung oder einfach nur etwas mehr Übung brauchen, stehen Ihnen diese Videos, Lesungen und Aktivitäten immer dann zur Verfügung, wenn Sie sie brauchen. Jetzt freue ich mich, dass Sie mit dem Dozenten für den nächsten Kurs zusammenarbeiten. Vielleicht erinnern Sie sich an Ed aus dem Video, in dem dieses Programm vorgestellt wurde. Er ist Produktmanager hier bei Google. Ed ist bereit, Ihnen bei Ihrem nächsten Schritt zum Abschluss dieses Programms und zur Karriere als Business-Intelligence-Experte zu helfen. Dieser Kurs baut direkt auf allen spannenden Themen auf, die Sie bisher gelernt haben. Sie erhalten viel mehr Einblicke in Datenmodelle, Pipelines, Datentransformation und vieles mehr. Im weiteren Verlauf bauen Sie Ihr BI-Fachwissen weiter aus. Bevor Sie jedoch beginnen, möchte ich Ihnen dafür danken, dass Sie an diesem Kurs teilgenommen haben und sich für diese spannende Lernmöglichkeit entschieden haben. Ich bin fest davon überzeugt, dass Bildung eine lebenslange Reise ist. Für mich bedeutete dies, Python am Arbeitsplatz zu lernen, um meine Analysen zu beschleunigen, und Bücher über Wohlbefinden zu lesen, um ein gesünderer und widerstandsfähigerer Mensch zu werden. Ebenso habe ich keinen Zweifel daran, dass all Ihre Zeit und Mühe Sie hier besser auf alles vorbereiten wird, was Sie in der Zukunft tun möchten. Sie haben einen langen Weg zurückgelegt. Nehmen Sie sich also einen Moment Zeit, um alles zu feiern, was Sie erreicht haben, und machen Sie sich dann auf den Weg zum nächsten Kurs. Ed ist bereit und wartet darauf, Ihnen den Einstieg zu erleichtern. Auf Wiedersehen.

Beginnen Sie mit Kurs 2

Herzlichen Glückwunsch zum Abschluss des ersten Kurses des Google Business Intelligence-Zertifikats! In diesem Teil des Programms haben Sie mehr über die Rolle von BI-Fachkräften in einem Unternehmen und einige typische BI-Karrierewege erfahren. Sie haben auch untersucht, wie BI-Experten Tools und Ansätze nutzen, um eine positive Wirkung auf ihr Team zu erzielen. Und schließlich haben Sie mehr darüber erfahren, wie dieses Programm Sie darauf vorbereiten kann, als Profi im BI-Bereich sinnvolle und dauerhafte Beiträge zu leisten.

Das gesamte Programm besteht aus drei Kursen:

  1. Grundlagen der Business Intelligence: (Sie sind hier!)

  2. Der Weg zu Erkenntnissen: Datenmodelle und Pipelines: In diesem Kurs erkunden Sie Datenmodellierung und ETL-Prozesse zum Extrahieren von Daten aus Quellsystemen, zum Umwandeln in Formate, die eine bessere Analyse ermöglichen und Geschäftsprozesse und -ziele vorantreiben.

  3. Entscheidungen, Entscheidungen: Dashboards und Berichte : In diesem Kurs wenden Sie Ihr Wissen über Business Intelligence und Datenmodellierung an, um dynamische Dashboards zu erstellen, die KPIs verfolgen, um die Bedürfnisse der Stakeholder zu erfüllen. 

Nachdem Sie diesen Kurs abgeschlossen haben, können Sie nun weitermachen! Um die Fortsetzung des Programms zu vereinfachen, können Sie über diesen Link zum nächsten Kurs wechseln:Der Weg zu Erkenntnissen: Datenmodelle und Pipelines

Machen Sie weiter so!

Einführung in Kurs 2

Video 41

Als BI-Experte beantworten Sie nicht nur die Fragen Ihres Teams, Sie versorgen es auch mit den Daten, mit denen es seine eigenen Fragen beantworten kann. Indem Sie genau die Antworten ermitteln, die sie benötigen, können Sie Tools entwickeln, die es ihnen ermöglichen, bei Bedarf auf die benötigten Daten zuzugreifen und diese zu nutzen. Hallo. Willkommen zu diesem Kurs. Wenn Sie das vorherige bereits abgeschlossen haben, erinnern Sie sich vielleicht an mich, aber wenn Sie gerade erst dabei sind, bin ich Ed. Ich bin Produktmanager hier bei Google. Ich freue mich sehr, Ihnen den Einstieg in Datenmodelle und das Extrahieren, Transformieren und Laden von ETL-Pipelines zu erleichtern. Wie Sie erfahren haben, sind BI-Experten für die Analyse von Daten verantwortlich, um aussagekräftige Erkenntnisse zu gewinnen und Probleme zu lösen, Fragen zu beantworten, Muster zu finden und fundierte Geschäftsentscheidungen zu treffen. Ein großer Teil davon ist die Entwicklung von Tools, um den Stakeholdern kontinuierliche Erkenntnisse zu liefern. Dieser Kurs konzentriert sich auf diese Tools und wie man sie automatisiert, um Daten aus verschiedenen Quellen abzurufen, sie zu überwachen und datengesteuerte Erkenntnisse bereitzustellen. Zunächst lernen Sie Entwurfsmuster und Datenbankschemata kennen, einschließlich gängiger Strukturen, die BI-Experten verwenden. Außerdem erhalten Sie eine Einführung in Datenpipelines und ETL-Prozesse. Sie haben gelernt, dass ETL für Extrahieren, Transformieren und Laden steht. Dies bezieht sich auf den Prozess, Daten aus Quellsystemen zu sammeln, sie in ein nützliches Format umzuwandeln und sie in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen. Dies wird ein wichtiger Teil Ihrer Arbeit als BI-Experte sein. Sie entwickeln außerdem Strategien zum Sammeln von Informationen von Stakeholdern, um Ihnen bei der Entwicklung nützlicherer Tools und Prozesse für Ihr Team zu helfen. Danach konzentrieren Sie sich auf die Datenbankoptimierung, um die Antwortzeit bzw. die Zeit zu verkürzen, die eine Datenbank benötigt, um eine Benutzeranfrage abzuschließen. Dazu gehört die Untersuchung verschiedener Datenbanktypen und der fünf Faktoren Datenbankleistung, Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Abschließend erfahren Sie, wie wichtig es ist, Ihre ETL-Prozesse auf Qualität zu testen, Ihr Datenbankschema zu validieren und Geschäftsregeln zu überprüfen. Nach Abschluss dieses Kurses wenden Sie Ihre Fähigkeiten in einem realistischen Geschäftsszenario an. Dies ist eine hervorragende Möglichkeit, potenziellen Arbeitgebern Ihr BI-Wissen zu demonstrieren. Wie Sie erfahren haben, besteht ein großer Teil von BI darin, die Arbeit anderer Menschen durch die Automatisierung, Vereinfachung und Verbesserung ihrer Prozesse zu erleichtern. Beispielsweise habe ich in einem meiner Projekte dem zentralen Finanzteam dabei geholfen, jahrelange weltweite Umsätze zu sammeln. Dadurch konnte mein Team die zugrunde liegenden Treiber identifizieren, die die Entwicklung von Preisen und verkauften Mengen beeinflussten. Anschließend konnten sie diese Ergebnisse den wichtigsten Interessengruppen klar mitteilen. Ich liebe es, Probleme zu lösen und das Leben meiner Teams ein wenig einfacher zu machen. Das ist einer der Gründe, warum ich es so freue, Ihnen in diesem Kurs mehr über Datenmodellierung und Pipelines beizubringen. Also gut, fangen wir an.

Hilfreiche Ressourcen und Tipps

Als Lernender können Sie einen oder mehrere Kurse dieses Programms absolvieren. Um das Google Business Intelligence-Zertifikat zu erhalten, müssen Sie jedoch alle Kurse absolvieren. In dieser Lektüre wird beschrieben, was erforderlich ist, um ein Zertifikat zu erhalten, und Best Practices für eine gute Lernerfahrung auf Coursera.

Erhalten Sie das Google Business Intelligence-Zertifikat

Um Ihr offizielles Google Business Intelligence-Zertifikat zu erhalten, müssen Sie:

  • Bestehen Sie alle benoteten Aufgaben in allen drei Kursen des Zertifikatsprogramms. Jede benotete Aufgabe ist Teil einer kumulativen benoteten Punktzahl für den Kurs, und die Bestehensnote für jeden Kurs beträgt 80 %. 

UND  eines  der folgenden:

  • Zahlen Sie dieKurszertifikatgebühr,

  • Seien Sie zugelassen fürCoursera-Finanzhilfeoder

  • Füllen Sie das Zertifikat über eine Bildungseinrichtung, einen Arbeitgeber oder eine Agentur aus, die Ihre Teilnahme sponsert. 

Gesunde Gewohnheiten für den Kursabschluss

Hier finden Sie eine Liste mit Best Practices, die Ihnen dabei helfen, die Kurse des Programms rechtzeitig abzuschließen: 

  • Planen Sie Ihre Zeit: Wenn Sie regelmäßige Lernzeiten festlegen und diese jede Woche einhalten, können Sie das Lernen zu einem Teil Ihrer Routine machen. Verwenden Sie einen Kalender oder Zeitplan, um einen Zeitplan zu erstellen, und listen Sie auf, was Sie jeden Tag tun möchten, um erreichbare Ziele festzulegen. Suchen Sie sich einen Raum, in dem Sie sich konzentrieren können, wenn Sie sich die Videos ansehen, die Messwerte noch einmal durchgehen und die Aktivitäten abschließen.

  • Arbeiten Sie in Ihrem eigenen Tempo: Jeder lernt anders. Deshalb wurde dieses Programm so konzipiert, dass Sie in Ihrem eigenen Tempo arbeiten können. Obwohl Ihre persönlichen Fristen mit der Einschreibung beginnen, können Sie das Programm gerne in der Geschwindigkeit absolvieren, die für Sie am besten geeignet ist. Für verspätete Zuweisungen gibt es keine Strafe; Um Ihr Zertifikat zu erhalten, müssen Sie lediglich alle Arbeiten abschließen. Sie können Ihre Fristen jederzeit verlängern, indem Sie im Navigationsbereich auf „Übersicht“ gehen und „Sitzungen wechseln“ auswählen . Wenn Sie bereits frühere Fristen verpasst haben, wählen Sie stattdessen „Meine Fristen zurücksetzen“ aus .

  • Seien Sie neugierig: Wenn Sie eine Idee finden, die Sie begeistert, handeln Sie danach! Stellen Sie Fragen, suchen Sie online nach weiteren Details, erkunden Sie die Links, die Sie interessieren, und machen Sie sich Notizen zu Ihren Entdeckungen. Die Schritte, die Sie unternehmen, um Ihr Lernen auf Ihrem Weg zu unterstützen, werden Ihr Wissen erweitern, mehr Möglichkeiten in diesem wachstumsstarken Bereich schaffen und Ihnen helfen, sich für einen Arbeitsplatz zu qualifizieren. 

  • Machen Sie sich Notizen: Notizen helfen Ihnen, sich in Zukunft an wichtige Informationen zu erinnern, insbesondere wenn Sie sich auf den Eintritt in ein neues Berufsfeld vorbereiten. Darüber hinaus ist das Anfertigen von Notizen eine effektive Möglichkeit, Zusammenhänge zwischen Themen herzustellen und ein besseres Verständnis dieser Themen zu erlangen.

  • Prüfexemplare: Exemplare sind abgeschlossene Aufgaben, die die Kriterien einer Aktivität vollständig erfüllen. Für viele Aktivitäten in diesem Programm gibt es Beispiele, mit denen Sie Ihre Arbeit validieren oder auf Fehler prüfen können. Obwohl es oft viele Möglichkeiten gibt, eine Aufgabe zu erledigen, bieten Beispiele Anleitung und Inspiration für die Durchführung der Aktivität. 

  • Chatten Sie (verantwortlich) mit anderen Lernenden: Wenn Sie eine Frage haben, sind Sie wahrscheinlich nicht allein. Benutzen Sie dieDiskussionsforenandere Lernende, die an diesem Programm teilnehmen, um Hilfe zu bitten. Sie können auch Coursera’s besuchenGlobale Online-Community. Weitere wichtige Dinge, die Sie beim Lernen mit anderen wissen sollten, finden Sie imEhrenkodex der CourseraUndVerhaltenskodex

  • Aktualisieren Sie Ihr Profil: Überlegen SieAktualisierung Ihres Profilsauf Coursera, um Ihr Foto, Ihre Karriereziele und mehr hinzuzufügen. Wenn andere Lernende Sie in den Diskussionsforen finden, können sie auf Ihren Namen klicken, um auf Ihr Profil zuzugreifen und Sie besser kennenzulernen.

Dokumente, Tabellenkalkulationen, Präsentationen und Labore für Kursaktivitäten

Um bestimmte Aktivitäten im Programm abzuschließen, müssen Sie digitale Dokumente, Tabellenkalkulationen, Präsentationen und/oder Labore verwenden. Business-Intelligence-Experten nutzen diese Softwaretools für die Zusammenarbeit innerhalb ihrer Teams und Organisationen. Wenn Sie weitere Informationen zur Verwendung eines bestimmten Tools benötigen, lesen Sie diese Ressourcen:

Modul-, Kurs- und Zertifikatsglossare

Dieses Programm behandelt viele Begriffe und Konzepte, von denen Sie einige möglicherweise bereits kennen und andere möglicherweise nicht kennen. Um sich mit Begriffen vertraut zu machen und sich auf benotete Tests vorzubereiten, sehen Sie sich die folgenden Glossare an:

  • Modulglossare : Am Ende des Inhalts jedes Moduls können Sie ein Glossar mit Begriffen aus diesem Modul einsehen. Das Glossar jedes Moduls baut auf den Begriffen der vorherigen Module dieses Kurses auf. Die Modulglossare können nicht heruntergeladen werden; Alle Begriffe und Definitionen sind jedoch in den herunterladbaren Kurs- und Zertifikatsglossaren enthalten.

  • Kursglossare : Am Ende jedes Kurses können Sie auf ein Glossar zugreifen und es herunterladen, das alle Begriffe in diesem Kurs abdeckt. 

  • Zertifikatsglossar : Das Zertifikatsglossar enthält alle Begriffe des gesamten Zertifikatsprogramms und ist eine hilfreiche Ressource, auf die Sie während des gesamten Programms oder jederzeit in der Zukunft zurückgreifen können. 

Sie können auf die Zertifikatsglossare zugreifen, diese herunterladen und auf Ihrem Computer speichern. Die Kurs- und Zertifikatsglossare finden Sie auch in den KursenRessourcenTab. Um auf das Glossar des Business Intelligence-Zertifikats zuzugreifen , klicken Sie auf den folgenden Link und wählen Sie Vorlage verwenden aus .

ODER

  • Wenn Sie kein Google-Konto haben, können Sie das Glossar direkt aus dem Anhang unten herunterladen.

 
Glossar zum Business Intelligence-Zertifikat
DOCX-Datei

Glossar zum Data Analytics-Zertifikat

Wenn Sie das abgeschlossen habenGoogle Data Analytics-ZertifikatMöglicherweise erkennen Sie Überschneidungen mit mehreren Glossarbegriffen in diesem Programm. Weitere Informationen finden Sie im Glossar zum Data Analytics-Zertifikat, das im verlinkt istRessourcenKlicken Sie auf die Registerkarte, um diese grundlegenden Begriffe und Konzepte zu überprüfen. Die Definitionen einiger Begriffe in diesem Glossar weichen von den Definitionen derselben Begriffe in diesem Programm ab, da das Business Intelligence-Zertifikat auf den im Data Analytics-Zertifikat vermittelten Konzepten aufbaut.

Kursfeedback

Es ist einfach, Feedback zu Videos, Lesungen und anderen Materialien zu geben. Wenn die Ressource in Ihrem Browser geöffnet ist, finden Sie die Daumen-hoch- und Daumen-runter-Symbole. 

  • Klicken Sie auf „Daumen hoch“ , um Materialien anzuzeigen, die Sie hilfreich finden. 

  • Klicken Sie auf die Daumen-nach-unten-Taste für Materialien, die Sie nicht hilfreich finden.

Wenn Sie ein bestimmtes Problem mit einem Artikel kennzeichnen möchten, klicken Sie auf das Flaggensymbol, wählen Sie eine Kategorie aus und geben Sie eine Erklärung in das Textfeld ein. Dieses Feedback geht an das Kursentwicklungsteam zurück und ist für andere Lernende nicht sichtbar. Das gesamte erhaltene Feedback trägt dazu bei, in Zukunft noch bessere Zertifikatsprogramme zu schaffen. 

Für technische Hilfe besuchen Sie bitte dieHilfezentrum für Lernende.

Ed: Überwinde das Hochstapler-Syndrom

Video 42

Hallo. Ich bin Ed. Ich bin Produktmanager bei Google. Als Produktmanager definiere ich die Vision für ein Produkt und stelle sicher, dass sie mit den tatsächlichen Anforderungen der Benutzer an das Produkt übereinstimmt. Für mich ist das Imposter-Syndrom die Überzeugung, dass man in Bezug auf seine Fähigkeiten, seine Perspektiven, seinen Hintergrund oder seine Erfahrung nicht dort ist, wo es sein sollte. Ich habe definitiv das Hochstapler-Syndrom erlebt. Ich arbeite mit vielen Leuten zusammen, die in ihren Fachgebieten sehr kompetent sind. Nicht jeder kann jede einzelne Fähigkeit flächendeckend besitzen. Am Ende denkst du: Oh, vielleicht sollte ich in der Lage sein, so zu programmieren wie sie, oder vielleicht sollte ich ein ebenso guter Datenwissenschaftler sein wie er, und vielleicht sollte ich diese Perspektive haben, wie es anscheinend auch jeder um mich herum tut. Das stimmt nicht unbedingt. Ich denke wirklich, dass es wichtig ist, sich auf die einzigartige Perspektive zu konzentrieren, die Sie bieten, denn die Perspektive, das Fachwissen und die Interessen jedes Einzelnen und die Art und Weise, wie er all diese anwenden wird, werden alle unterschiedlich sein. Es gibt einzigartige Kombinationen von Dingen, die Sie bereitstellen, die andere Menschen einfach aufgrund der Tatsache, dass Sie Sie selbst sind, nicht bereitstellen können. Ich habe herausgefunden, dass die nützlichste Technik zur Überwindung des Imposter-Syndroms darin besteht, verletzlich zu sein und zu zeigen, dass man sich so fühlt. Finden Sie Menschen, denen Sie vertrauen, finden Sie Menschen, mit denen Sie sprechen können, und sagen Sie ihnen, wie Sie sich fühlen. Sagen Sie ihnen, warum Sie sich so fühlen. Ein bestimmtes Gefühl muss kein Hinweis darauf sein, wer Sie sind oder wozu Sie fähig sind. Es ist einfach so. In der Lage zu sein, verletzlich zu sein und zu sagen: „Hey, ich verstehe das nicht“ oder „Ich hätte gerne ein paar zusätzliche Informationen“, die nicht nur für Sie, sondern auch für die Menschen in Ihrem Umfeld hilfreich sein können. Wir neigen dazu, uns auf das Negative zu konzentrieren. Wir neigen dazu, uns auf die Herausforderungen oder konstruktiven Aspekte zu konzentrieren, bei denen wir möglicherweise Verbesserungsbedarf sehen. Wir geben uns zwar nicht genug Anerkennung für die Dinge, die wir gut machen, aber für die Dinge, die Stärken sind, auf die wir uns stärker stützen sollten. Sie werden erfolgreicher sein, wenn Sie Ihre Stärken verstehen und wirklich nutzen, als einfach zu versuchen, Ihre Fehler zu verbergen oder vor ihnen davonzulaufen.

Überblick über Kurs 2

Willkommensbanner für Kurs 2

Hallo und willkommen bei „ The Path to Insights: Data Models and Pipelines“ , dem zweiten Kurs im Google Business Intelligence-Zertifikat. Du befindest dich auf einer spannenden Reise!

Am Ende dieses Kurses sind Sie in der Lage, Datenmodellierung und ETL-Prozesse zu nutzen, um Daten aus Quellsystemen zu extrahieren, sie in Formate umzuwandeln, die eine bessere Analyse ermöglichen und Geschäftsprozesse und -ziele vorantreiben.

Kursbeschreibung

Das Google Business Intelligence-Zertifikat besteht aus drei Kursen. Der Weg zu Erkenntnissen: Datenmodelle und Pipelines ist der zweite Kurs.

Drei Symbole zeigen Kurse nacheinander von links nach rechts an, wobei Kurs 2 hervorgehoben ist.
  1. Grundlagen der Business Intelligence — Entdecken Sie die Rolle von BI-Experten innerhalb einer Organisation und die Karrierewege, die sie normalerweise einschlagen. Entdecken Sie anschließend die wichtigsten BI-Praktiken und -Tools und erfahren Sie, wie BI-Experten sie nutzen, um einen positiven Einfluss auf Unternehmen zu erzielen. 

  2. Der Weg zu Erkenntnissen: Datenmodelle und Pipelines– ( aktueller Kurs ) Erkunden Sie Datenmodellierung und ETL-Prozesse zum Extrahieren von Daten aus Quellsystemen, deren Umwandlung in Formate, die eine bessere Analyse ermöglichen, und zur Förderung von Geschäftsprozessen und -zielen.

  3. Entscheidungen, Entscheidungen: Dashboards und Berichte— Wenden Sie Ihr Wissen über BI und Datenmodellierung an, um dynamische Dashboards zu erstellen, die wichtige Leistungsindikatoren verfolgen, um den Anforderungen der Stakeholder gerecht zu werden.

Inhalt von Kurs 2

Jeder Kurs dieses Zertifikatsprogramms ist in Module unterteilt. Sie können Kurse in Ihrem eigenen Tempo absolvieren, die Modulaufschlüsselung soll Ihnen jedoch dabei helfen, das gesamte Google Business Intelligence-Zertifikat in zwei bis vier Monaten abzuschließen.

Was kommt? Hier finden Sie einen kurzen Überblick über die Fähigkeiten, die Sie in den einzelnen Modulen dieses Kurses erlernen.

Fünf Symbole zeigen den Kurs an, den die vier Module der Reihe nach von links nach rechts absolvieren

Modul 1: Datenmodelle und Pipelines

Zu Beginn dieses Kurses erkunden Sie die Grundlagen der Datenmodellierung sowie gängige Schemata und wichtige Datenbankelemente. Sie werden auch darüber nachdenken, wie Geschäftsanforderungen die Art von Datenbanksystemen bestimmen, die ein BI-Experte implementieren könnte. Anschließend lernen Sie mehr über Pipelines und ETL-Prozesse, die Tools, die Daten durch das System bewegen und sicherstellen, dass sie zugänglich und nützlich sind. Nebenbei erweitern Sie Ihre BI-Toolbox um viele weitere wichtige Tools.

Modul 2: Dynamisches Datenbankdesign

In diesem Teil des Kurses erfahren Sie mehr über Datenbanksysteme, einschließlich Data Marts, Data Lakes, Data Warehouses und ETL-Prozesse. Sie untersuchen außerdem die fünf Faktoren der Datenbankleistung: Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Abschließend beginnen Sie darüber nachzudenken, wie Sie effiziente Abfragen entwerfen können, die Ihr System optimal nutzen. 

Modul 3: ETL-Prozesse optimieren

In diesem Abschnitt des Kurses erfahren Sie mehr über ETL-Qualitätstests, Datenschemavalidierung, Überprüfung von Geschäftsregeln und allgemeine Leistungstests. Sie befassen sich außerdem mit der Datenintegrität und erfahren, wie integrierte Qualitätsprüfungen Ihnen dabei helfen, Datenfehler aufzudecken. Abschließend erfahren Sie, wie Sie Geschäftsregeln überprüfen und allgemeine Leistungstests durchführen, um sicherzustellen, dass Pipelines die beabsichtigten Geschäftsanforderungen erfüllen. 

Modul 4: Abschlussprojekt von Kurs 2

Im zweiten Abschlussprojekt erstellen Sie einen Pipeline-Prozess, um die erforderlichen Daten an eine Zieltabelle zu liefern. Anschließend verwenden Sie diese Zieltabelle, um Berichte basierend auf den Projektanforderungen zu entwickeln. Nachdem Sie die Pipeline erstellt haben, stellen Sie außerdem sicher, dass sie ordnungsgemäß funktioniert und dass integrierte Abwehrmaßnahmen gegen Datenqualitätsprobleme vorhanden sind. 

Was zu erwarten ist

Jeder Kurs bietet viele Arten von Lernmöglichkeiten:

  • Von Google-Lehrern geleitete Videos vermitteln neue Konzepte, führen in die Verwendung relevanter Tools ein, bieten Karriereunterstützung und liefern inspirierende persönliche Geschichten. 

  • Die Lesungen bauen auf den in den Videos behandelten Themen auf, stellen verwandte Konzepte vor, teilen nützliche Ressourcen und beschreiben Fallstudien.

  • Diskussionsaufforderungen erläutern Kursthemen zum besseren Verständnis und ermöglichen es Ihnen, mit anderen Lernenden im zu chatten und Ideen auszutauschenDiskussionsforen.

  • Durch Selbstüberprüfungsaktivitäten und Labore können Sie die Anwendung der erlernten Fertigkeiten praktisch üben und Ihre eigene Arbeit durch den Vergleich mit einem abgeschlossenen Beispiel bewerten.

  • Interaktive Plug-ins regen zum Üben konkreter Aufgaben an und unterstützen Sie bei der Integration des im Kurs erworbenen Wissens.

  • In-Video-Tests helfen Ihnen, Ihr Verständnis zu überprüfen, während Sie jedes Video durchgehen.

  • Mit Übungsquiz können Sie Ihr Verständnis wichtiger Konzepte überprüfen und wertvolles Feedback geben.

  • Benotete Tests zeigen Ihr Verständnis der Hauptkonzepte eines Kurses. Um ein Zertifikat zu erhalten, müssen Sie in jedem benoteten Quiz mindestens 80 % erreichen. Sie können ein benotetes Quiz auch mehrmals absolvieren, um eine bestandene Punktzahl zu erreichen.

Tipps für den Erfolg

  • Es wird dringend empfohlen, dass Sie die Elemente in jeder Lektion in der Reihenfolge durchgehen, in der sie erscheinen, da neue Informationen und Konzepte auf Vorkenntnissen aufbauen.

  • Nehmen Sie an allen Lernmöglichkeiten teil, um so viel Wissen und Erfahrung wie möglich zu sammeln.

  • Wenn etwas verwirrend ist, zögern Sie nicht, ein Video noch einmal abzuspielen, eine Lektüre zu wiederholen oder eine Selbstüberprüfungsaktivität zu wiederholen.

  • Nutzen Sie die zusätzlichen Ressourcen, auf die in diesem Kurs verwiesen wird. Sie sollen Ihr Lernen unterstützen. Alle diese Ressourcen finden Sie imRessourcenTab.

  • Wenn Sie in diesem Kurs auf nützliche Links stoßen, setzen Sie ein Lesezeichen darauf, damit Sie später auf die Informationen zurückgreifen können, um sie zu studieren oder zu überprüfen.

  • Verstehen und befolgen Sie dieCoursera-Verhaltenskodexum sicherzustellen, dass die Lerngemeinschaft für alle Mitglieder ein einladender, freundlicher und unterstützender Ort bleibt.

Willkommen zu Modul 1

Video 43

Willkommen zum ersten Abschnitt dieses Kurses. Sie erfahren, wie BI-Experten Datenmodelle zum Aufbau von Datenbanksystemen verwenden, wie Schemata Fachleuten dabei helfen, diese Systeme zu verstehen und zu organisieren, und wie Pipeline-Prozesse Daten von einem Teil des Systems in einen anderen verschieben. Wir beginnen mit der Erkundung der Grundlagen der Datenmodellierung sowie gängiger Schemata und wichtiger Datenbankelemente. Wir werden auch darüber nachdenken, wie Geschäftsanforderungen die Art von Datenbanksystemen bestimmen, die ein BI-Experte implementieren könnte. Anschließend wechseln wir zu Pipelines und ETL-Prozessen, den Tools, die Daten durch das System bewegen und sicherstellen, dass sie zugänglich und nützlich sind. Wenn Sie fertig sind, haben Sie Ihrer BI-Toolbox viele weitere wichtige Tools hinzugefügt. Lass uns anfangen.

Datenmodellierung, Entwurfsmuster und Schemata

Video 44

In diesem Video befassen wir uns mit Datenmodellierung, Entwurfsmustern und Schemata. Wenn Sie mit Datenbanken gearbeitet haben oder über ein Google Data Analytics-Zertifikat verfügen, kennen Sie möglicherweise die Datenmodellierung als eine Möglichkeit, über die Organisation von Daten nachzudenken. Vielleicht verwenden Sie sogar bereits Schemata, um zu verstehen, wie Datenbanken entworfen werden. Wie Sie erfahren haben, ist eine Datenbank eine Sammlung von Daten, die in einem Computersystem gespeichert sind. Um Datenbanken nutzbar zu machen, müssen die Daten organisiert werden. Dies umfasst sowohl Quellsysteme, aus denen Daten aufgenommen und verschoben werden, als auch die Zieldatenbank, in der auf sie reagiert wird. Zu diesen Quellsystemen könnten Data Lakes gehören, bei denen es sich um Datenbanksysteme handelt, die große Mengen an Rohdaten in ihrem Originalformat speichern, bis sie benötigt werden. Eine andere Art von Quellsystem ist eine Online-Transaktionsverarbeitungs- oder OLTP-Datenbank. Eine OLTP-Datenbank ist eine Datenbank, die für die Datenverarbeitung statt für die Analyse optimiert wurde. Eine Art Zielsystem ist ein Data Mart, eine themenorientierte Datenbank, die eine Teilmenge eines größeren Data Warehouse sein kann. Eine weitere Möglichkeit ist die Verwendung einer Online Analytical Processing- oder OLAP-Datenbank. Hierbei handelt es sich um ein Tool, das neben der Verarbeitung auch für die Analyse optimiert wurde und Daten aus mehreren Datenbanken analysieren kann. Mehr über diese Dinge erfahren Sie später. Aber vorerst sollten Sie sich darüber im Klaren sein, dass ein großer Teil der Verantwortung eines BI-Experten darin besteht, das Zieldatenbankmodell zu erstellen. Anschließend werden die Systeme, Tools und Speicher entsprechend organisiert, einschließlich der Gestaltung der Organisation und Speicherung der Daten. Diese Systeme spielen alle eine Rolle in den Werkzeugen, die Sie später erstellen werden. Sie sind wichtige Grundlagen für wichtige BI-Prozesse. Wenn es um die Organisation geht, wissen Sie wahrscheinlich, dass es zwei Arten von Daten gibt: unstrukturierte und strukturierte. Unstrukturierte Daten sind nicht auf eine leicht identifizierbare Weise organisiert. Strukturdaten wurden in einem bestimmten Format organisiert, beispielsweise in Zeilen und Spalten. Wenn Sie verschiedene Datentypen erneut betrachten möchten, nehmen Sie sich einen Moment Zeit, um diese Informationen aus dem Data Analytics-Zertifikat zu lesen. Nun kann es schwierig sein, die Struktur zu verstehen. Hier kommt die Datenmodellierung ins Spiel. Wie Sie bereits erfahren haben, ist ein Datenmodell ein Werkzeug zum Organisieren von Datenelementen und ihrer Beziehung zueinander. Hierbei handelt es sich um konzeptionelle Modelle, die dazu beitragen, die Datenkonsistenz im gesamten System aufrechtzuerhalten. Dies bedeutet, dass wir eine Vorstellung davon bekommen, wie die Daten theoretisch organisiert sind. Denken Sie an Furneses perfekten Business-Intelligence-Zug zurück. Ein Datenmodell ist wie eine Karte dieses Zugsystems. Es hilft Ihnen beim Navigieren in der Datenbank, indem es Ihnen Anweisungen durch das System gibt. Bei der Datenmodellierung handelt es sich um einen Prozess zur Erstellung dieser Tools. Um das Datenmodell zu erstellen, verwenden BI-Experten häufig ein sogenanntes Entwurfsmuster. Design Pattern ist eine Lösung, die relevante Kennzahlen und Fakten nutzt, um ein Modell zur Unterstützung von Geschäftsanforderungen zu erstellen. Stellen Sie es sich wie eine wiederverwendbare Problemlösungsvorlage vor, die auf viele verschiedene Szenarien angewendet werden kann. Möglicherweise sind Sie mit der Ausgabe des Entwurfsmusters, einem Datenbankschema, besser vertraut. Zur Erinnerung: Ein Schema ist eine Möglichkeit zu beschreiben, wie beispielsweise Daten organisiert sind. Möglicherweise sind Sie bei der Arbeit mit Datenbanken schon einmal auf Schemata gestoßen. Zu den gängigen Schemata, mit denen Sie möglicherweise vertraut sind, gehören beispielsweise relationale Modelle, Sternschemata, Snowflake-Schemas und NoSQL-Schemas. Mithilfe dieser unterschiedlichen Schemata konnten wir das Modell beschreiben, das zur Organisation der Daten verwendet wurde. Wenn das Entwurfsmuster die Vorlage für das Datenmodell ist, ist das Schema die Zusammenfassung dieses Modells. Da BI-Experten bei der Erstellung dieser Systeme eine so wichtige Rolle spielen, ist das Verständnis der Datenmodellierung ein wesentlicher Bestandteil der Arbeit. Demnächst erfahren Sie mehr über die Verwendung von Entwurfsmustern und -schemata in BI und erhalten die Möglichkeit, die Datenmodellierung selbst zu üben. Bis bald.

Erhalten Sie die Fakten mit dimensionalen Modellen

Video 45

Wenn Sie mit Datenbank-SQL gearbeitet haben, sind Sie wahrscheinlich bereits mit relationalen Datenbanken vertraut. In diesem Video kehren Sie zum Konzept relationaler Datenbanken zurück und lernen eine bestimmte Art relationaler Modellierungstechnik kennen, die in der Business Intelligence verwendet wird: die dimensionale Modellierung. Zur Erinnerung: Eine relationale Datenbank enthält eine Reihe von Tabellen, die zur Bildung von Beziehungen verbunden werden können. Diese Beziehungen werden mithilfe von Primär- und Fremdschlüsseln hergestellt. Schauen Sie sich diese Autohaus-Datenbank an. Die Filial-ID ist der Primärschlüssel in der Tabelle „Autohäuser“, in der Tabelle „Produktdetails“ jedoch der Fremdschlüssel. Dadurch werden diese beiden Tabellen direkt miteinander verbunden. VIN ist der Primärschlüssel in der Produktdetailtabelle und der Fremdschlüssel in der Ersatzteiltabelle. Beachten Sie, wie diese Verbindungen tatsächlich Beziehungen zwischen all diesen Tabellen herstellen. Sogar die Autohäuser und Ersatzteiltabellen sind durch die Produktdetailtabelle verbunden. Wenn Sie das Google Data Analytics-Zertifikat erworben haben, erfahren Sie, dass ein Primärschlüssel eine Kennung in der Datenbank ist, die auf eine Spalte verweist, in der jeder Wert eindeutig ist. Für BI werden wir diese Idee erweitern. Ein Primärschlüssel ist ein Bezeichner in einer Datenbank, der auf eine Spalte oder eine Gruppe von Spalten verweist, in der jede Zeile jeden Datensatz in der Tabelle eindeutig identifiziert. In dieser Datenbank haben wir Primärschlüssel in jeder Tabelle. Filial-ID, Fahrgestellnummer und Teile-ID. Ein Fremdschlüssel ist ein Feld innerhalb einer Datenbanktabelle, das ein Primärschlüssel in einer anderen Tabelle ist. Die Primärschlüssel jeder Tabelle erscheinen auch als Fremdschlüssel in anderen Tabellen. Was diese Verbindungen aufbaut. Grundsätzlich kann ein Primärschlüssel verwendet werden, um der Datenbank Einschränkungen aufzuerlegen, die sicherstellen, dass Daten in einer bestimmten Spalte eindeutig sind, indem ein Datensatz in einer relationalen Datenbanktabelle spezifisch identifiziert wird. In einer Tabelle kann nur ein Primärschlüssel vorhanden sein, eine Tabelle kann jedoch viele Fremdschlüssel enthalten. Okay, jetzt kommen wir zu den dimensionalen Modellen. Ein dimensionales Modell ist eine Art relationales Modell, das für den schnellen Abruf von Daten aus einem Data Warehouse optimiert wurde. Dimensionsmodelle können in Fakten zur Messung und Dimensionen unterteilt werden, die Attribute für den Kontext hinzufügen. In einem dimensionalen Modell ist ein Fakt eine Messung oder Metrik. Beispielsweise könnte eine monatliche Verkaufszahl eine Tatsache sein, und eine Dimension ist eine Information, die mehr Details und Kontext zu dieser Tatsache liefert. Es geht um das Wer, Was, Wo, Wann, Warum und Wie. Wenn es sich also um unsere monatlichen Verkaufszahlen handelt, könnten die Dimensionen Informationen über jeden Verkauf sein, einschließlich des Kunden, des Geschäftsstandorts und der verkauften Produkte. Betrachten wir als Nächstes die Attribute. Wenn Sie Ihr Google Data Analytics-Zertifikat erworben haben, haben Sie etwas über Attribute in Tabellen gelernt. Ein Attribut ist ein Merkmal oder eine Datenqualität, die zur Beschriftung der Tabellenspalten verwendet wird. In dimensionalen Modellen funktionieren Attribute auf die gleiche Weise. Ein Attribut ist ein Merkmal oder eine Qualität, die zur Beschreibung einer Dimension verwendet werden kann. Eine Dimension liefert also Informationen über einen Fakt und ein Attribut liefert Informationen über eine Dimension. Denken Sie an einen Reisepass. Eine Dimension in Ihrem Reisepass ist Ihre Haar- und Augenfarbe. Wenn Sie braune Haare und Augen haben, ist Braun das Attribut, das diese Dimension beschreibt. Lassen Sie uns dies anhand eines weiteren einfachen Beispiels verdeutlichen. Wenn wir in unserem Autohaus-Beispiel die Kundendimension untersuchen, könnten für jeden Kunden Attribute wie Name, Adresse und Telefonnummer aufgeführt sein. Nachdem wir nun die Fakten, Dimensionen und Attribute festgelegt haben, ist es an der Zeit, dass das Dimensionsmodell diese Dinge verwendet, um zwei Arten von Tabellen zu erstellen: Faktentabellen und Dimensionstabellen. Eine Faktentabelle enthält Messungen oder Metriken, die sich auf ein bestimmtes Ereignis beziehen. Dies ist die primäre Tabelle, die die Fakten und ihre Beziehung zu den Dimensionen enthält. Grundsätzlich stellt jede Zeile in der Faktentabelle ein Ereignis dar. Die gesamte Tabelle könnte mehrere Ereignisse wie Verkäufe an einem Tag zusammenfassen. In einer Dimensionstabelle werden Attribute der Dimensionen eines Fakts gespeichert. Diese Tabellen werden mithilfe des Fremdschlüssels mit der entsprechenden Faktentabelle verknüpft. Dies verleiht den Fakten Bedeutung und Kontext. Auf diese Weise werden Tabellen im Dimensionsmodell verbunden. Wenn Sie verstehen, wie dimensionale Modellierung Verbindungen aufbaut, können Sie als BI-Experte das Datenbankdesign besser verstehen. Dadurch werden auch Datenbankschemata geklärt, die die Ausgabe von Entwurfsmustern sind. Als nächstes werden wir uns verschiedene Arten von Schemata ansehen, die aus dieser Art der Modellierung resultieren. Um zu verstehen, wie diese Konzepte in der Praxis funktionieren

Entwerfen Sie effiziente Datenbanksysteme mit Schemata

Sie haben gelernt, wie Business-Intelligence-Experten Datenmodelle und Schemata verwenden, um Datenbanken zu organisieren und zu optimieren. Zur Erinnerung: Ein Schema ist eine Möglichkeit, die Art und Weise zu beschreiben, wie etwas organisiert ist. Stellen Sie sich Datenschemata wie Blaupausen für den Aufbau einer Datenbank vor. Dies ist sehr nützlich, wenn Sie einen neuen Datensatz erkunden oder eine relationale Datenbank entwerfen. Ein Datenbankschema stellt jede Art von Struktur dar, die rund um die Daten definiert ist. Auf der einfachsten Ebene gibt es an, welche Tabellen oder Beziehungen die Datenbank bilden, sowie die in jeder Tabelle enthaltenen Felder.

In dieser Lektüre werden gängige Schematypen erläutert, denen Sie bei der Arbeit begegnen können.

Arten von Schemata

Stern und Schneeflocke

Sie haben bereits etwas über die relationalen Modelle von Stern- und Schneeflockenschemata gelernt. Stern- und Schneeflockenschemata haben einige Gemeinsamkeiten, weisen aber auch einige Unterschiede auf. Obwohl beide Dimensionstabellen gemeinsam nutzen, sind die Dimensionstabellen in Snowflake-Schemas beispielsweise normalisiert. Dadurch werden Daten in zusätzliche Tabellen aufgeteilt, was die Schemata etwas komplexer macht.

Ein Sternschema ist ein Schema, das aus einer oder mehreren Faktentabellen besteht, die auf eine beliebige Anzahl von Dimensionstabellen verweisen. Wie der Name schon sagt, hat dieses Schema die Form eines Sterns. Diese Art von Schema ist ideal für die Bereitstellung umfangreicher Informationen und sorgt für eine effizientere Leseausgabe. Außerdem werden Attribute in Fakten und beschreibende Dimensionsattribute (Produkt-ID, Kundenname, Verkaufsdatum) klassifiziert.

Hier ist ein Beispiel für ein Sternschema:

In diesem Beispiel verwendet dieses Unternehmen ein Sternschema, um die Verkaufsinformationen in seinen Tabellen zu verfolgen. Das beinhaltet:

  • Kundeninformation

  • Produktinformation

  • Der Zeitpunkt, zu dem der Verkauf erfolgt

  • Mitarbeiterinformation

Alle Dimensionstabellen verweisen auf die Tabelle „sales_fact“ in der Mitte, was bestätigt, dass es sich um ein Sternschema handelt.

Ein Schneeflockenschema ist eine Erweiterung eines Sternschemas mit zusätzlichen Dimensionen und häufig auch Unterdimensionen. Diese Dimensionen und Unterdimensionen erzeugen ein Schneeflockenmuster. Wie Schneeflocken in der Natur kann ein Schneeflockenschema – und die Beziehungen darin – komplex sein. Snowflake-Schemas sind ein Organisationstyp, der für eine blitzschnelle Datenverarbeitung entwickelt wurde.

Unten finden Sie ein Beispiel für ein Schneeflockenschema:

Vielleicht möchte ein Datenexperte ein Schneeflockenschema entwerfen, das Informationen zu Sportlern/Vereinen enthält. Beginnen Sie in der Mitte mit der Faktentabelle, die Folgendes enthält:

  • PLAYER_ID

  • LEAGUE_ID

  • MATCH_TYPE

  • CLUB_ID

Diese Faktentabelle verzweigt sich in mehrere Dimensionstabellen und sogar Unterdimensionen. In den Dimensionstabellen werden zahlreiche Details aufgeführt, z. B. Statistiken zu Spielernationalspielern und Spielerclubs, Transferhistorie und mehr.

Flaches Modell

Bei abgeflachten Schemata handelt es sich um äußerst einfache Datenbanksysteme mit einer einzelnen Tabelle, in der jeder Datensatz durch eine einzelne Datenzeile dargestellt wird. Die Zeilen werden wie eine Spalte durch ein Trennzeichen getrennt, um die Trennung zwischen Datensätzen anzuzeigen. Flache Modelle sind nicht relational; Sie können keine Beziehungen zwischen Tabellen oder Datenelementen erfassen. Aus diesem Grund werden flache Modelle häufiger als potenzielle Quelle innerhalb eines Datensystems verwendet, um weniger komplexe Daten zu erfassen, die nicht aktualisiert werden müssen.

Hier ist eine flache Tabelle mit Läufern und Zeiten für einen 100-Meter-Lauf:

Diese Daten werden sich nicht ändern, da das Rennen bereits stattgefunden hat. Und da es so einfach ist, lohnt es sich nicht wirklich, es in eine komplexe relationale Datenbank zu integrieren, wenn ein einfaches flaches Modell ausreicht.

Als BI-Experte stoßen Sie möglicherweise auf flache Modelle in Datenquellen, die Sie in Ihre eigenen Systeme integrieren möchten. Wenn Sie überlegen, wie Sie die Daten am besten in Ihre Zieltabellen integrieren, ist es hilfreich zu wissen, dass es sich hierbei nicht bereits um relationale Modelle handelt.

Halbstrukturierte Schemata

Neben herkömmlichen relationalen Schemata gibt es auch halbstrukturierte Datenbankschemata, die über weitaus flexiblere Regeln verfügen, aber dennoch eine gewisse Organisation beibehalten. Da diese Datenbanken weniger strenge Organisationsregeln haben, sind sie äußerst flexibel und auf den schnellen Zugriff auf Daten ausgelegt.

Es gibt vier gängige halbstrukturierte Schemata:

Dokumentschemata speichern Daten als Dokumente, ähnlich wie JSON-Dateien . Diese Dokumente speichern Paare von Feldern und Werten unterschiedlicher Datentypen.

Schlüsselwertschemata koppeln eine Zeichenfolge mit einer Beziehung zu den Daten, etwa einem Dateinamen oder einer URL, die dann als Schlüssel verwendet wird. Dieser Schlüssel ist mit den Daten verknüpft, die in einer einzigen Sammlung gespeichert werden. Benutzer fordern Daten direkt an, indem sie den Schlüssel verwenden, um sie abzurufen.

Breitspaltige Schemata verwenden flexible, skalierbare Tabellen. Jede Zeile enthält einen Schlüssel und zugehörige Spalten, die in einem breiten Format gespeichert sind.

Diagrammschemata  speichern Datenelemente in Sammlungen, die als Knoten bezeichnet werden. Diese Knoten sind durch Kanten verbunden, die Informationen darüber speichern, wie die Knoten miteinander verbunden sind. Im Gegensatz zu relationalen Datenbanken ändern sich diese Beziehungen jedoch, wenn neue Daten in die Knoten eingegeben werden.

Abschluss

Als BI-Experte arbeiten Sie häufig mit Daten, die auf unterschiedliche Weise organisiert und gespeichert wurden. Verschiedene Datenbankmodelle und -schemata sind für unterschiedliche Zwecke nützlich, und wenn Sie das wissen, können Sie ein effizientes Datenbanksystem entwerfen!

Unterschiedliche Datentypen, unterschiedliche Datenbanken

Video 46

Während wir unsere Diskussion über datenbasierte Modellierung und Schemata fortsetzen, ist es wichtig zu verstehen, dass es verschiedene Aspekte von Datenbanken gibt, die ein Business-Intelligence-Experte möglicherweise für sein Unternehmen berücksichtigen muss. Dies liegt daran, dass das Datenbank-Framework, einschließlich der Art und Weise, wie Plattformen organisiert sind und wie Daten gespeichert und verarbeitet werden, die Art und Weise beeinflusst, wie Daten verwendet werden. Beginnen wir mit einem Beispiel. Denken Sie an die Datenbanksysteme eines Lebensmittelgeschäfts. Sie verwalten tägliche Geschäftsprozesse und analysieren und ziehen Erkenntnisse aus Daten. Beispielsweise muss die Datenbank eines Lebensmittelhändlers den Benutzern nicht nur die Verwaltung von Verkäufen ermöglichen, sondern auch Entscheidungsträgern dabei helfen, zu verstehen, welche Artikel Kunden kaufen und welche Werbeaktionen am effektivsten sind. In diesem Video schauen wir uns einige Beispiele für Datenbank-Frameworks an und erfahren, wie sie sich voneinander unterscheiden. Insbesondere unterscheiden sich Datenbanken je nachdem, wie die Daten verarbeitet, organisiert und gespeichert werden. Aus diesem Grund ist es wichtig zu wissen, welche Art von Datenbank Ihr Unternehmen verwendet. Sie entwerfen unterschiedliche Datenmodelle, je nachdem, wie Daten auf dieser Plattform gespeichert und abgerufen werden. Darüber hinaus besteht eine weitere Hauptaufgabe von BI-Experten darin, Datenbankmigrationen zu erleichtern, die häufig erforderlich sind, wenn sich die Technologie ändert und Unternehmen wachsen. Bei einer Datenbankmigration werden Daten von einer Quellplattform auf eine andere Zieldatenbank verschoben. Während einer Migration überführen Benutzer die aktuellen Datenbankschemata in einen neuen gewünschten Zustand. Dies kann das Hinzufügen von Tabellen oder Spalten, das Aufteilen von Feldern, das Entfernen von Elementen, das Ändern von Datentypen oder andere Verbesserungen umfassen. Der Datenbankmigrationsprozess erfordert häufig zahlreiche Phasen und Iterationen sowie zahlreiche Tests. Dies sind riesige Projekte für BI-Teams, und Sie möchten nicht unbedingt einfach das ursprüngliche Schema übernehmen und es im neuen verwenden. In diesem Video besprechen wir verschiedene Arten von Datenbanken, darunter OLTP, OLAP, zeilenbasierte, spaltenbasierte, verteilte, Single-Homed-, getrennte Speicher- und Rechendatenbanken sowie kombinierte Datenbanken. Die ersten beiden Datenbanktechnologien, die wir untersuchen wollten, OLTP- und OLAP-Systeme, basieren auf der Art und Weise, wie Daten verarbeitet werden. Wie Sie erfahren haben, ist eine Online-Transaktionsverarbeitungs- oder OLTP-Datenbank eine Datenbank, die für die Datenverarbeitung statt für die Analyse optimiert wurde.
Video abspielen, beginnend bei :2:22 und dem Transkript folgen2:22
OLTP-Datenbanken verwalten Datenbankänderungen und werden mit herkömmlicher Datenbankverwaltungssystemsoftware betrieben. Diese Systeme sind darauf ausgelegt, Transaktionen effektiv zu speichern und zur Gewährleistung der Konsistenz beizutragen. Ein Beispiel für eine OLTP-Datenbank wäre ein Online-Buchladen. Wenn zwei Personen dasselbe Buch in ihren Warenkorb legen, es aber nur ein Exemplar gibt, erhält die Person, die zuerst den Bestellvorgang abschließt, das Buch. Und das OLTP-System stellt sicher, dass nicht mehr Exemplare verkauft werden, als vorrätig sind. OLTP-Datenbanken sind für das Lesen, Schreiben und Aktualisieren einzelner Datenzeilen optimiert, um sicherzustellen, dass Geschäftsprozesse reibungslos ablaufen. Sie sind jedoch nicht unbedingt dafür ausgelegt, viele Zeilen gleichzeitig zu lesen. Als nächstes steht, wie bereits erwähnt, OLAP für Online Analytical Processing. Hierbei handelt es sich um ein Tool, das neben der Verarbeitung auch für die Analyse optimiert wurde und Daten aus mehreren Datenbanken analysieren kann. OLAP-Systeme beziehen Daten aus mehreren Quellen gleichzeitig, um Daten zu analysieren und wichtige Geschäftserkenntnisse bereitzustellen. Um auf unseren Online-Buchladen zurückzukommen: Ein OLAP-System könnte Daten über Kundenkäufe aus mehreren Data Warehouses abrufen. Um personalisierte Homepages für Kunden basierend auf ihren Vorlieben zu erstellen. OLAP-Datenbanksysteme ermöglichen es Unternehmen, ihre Analyseanforderungen aus einer Vielzahl von Datenquellen zu erfüllen. Abhängig von der Datenreife der Organisation könnte eine Ihrer ersten Aufgaben als BI-Experte darin bestehen, ein OLAP-System einzurichten. Viele Unternehmen verfügen über OLTP-Systeme für den Geschäftsbetrieb, verlassen sich jedoch darauf, dass Sie ein System erstellen, das der Datenanalyse Priorität einräumen kann. Dies ist ein wichtiger erster Schritt, um Erkenntnisse zu gewinnen. Kommen wir nun zu zeilenbasierten und spaltenbasierten Datenbanken. Wie der Name schon sagt, sind zeilenbasierte Datenbanken nach Zeilen organisiert. Jede Zeile in einer Tabelle ist eine Instanz oder ein Eintrag in der Datenbank und Details zu dieser Instanz werden aufgezeichnet und nach Spalten organisiert. Dies bedeutet, dass Sie den durchschnittlichen Gewinn aller Verkäufe der letzten fünf Jahre aus der Datenbank des Buchhandels ermitteln möchten. Sie müssten jede Zeile aus diesen Jahren abrufen, auch wenn Sie nicht alle in diesen Zeilen enthaltenen Informationen benötigen. Spaltendatenbanken hingegen sind nach Spalten organisierte Datenbanken. Sie werden in Data Warehouses verwendet, weil sie für analytische Abfragen sehr nützlich sind.
Video abspielen, beginnend bei :4:47 und das Transkript folgen4:47
Spaltendatenbanken verarbeiten Daten schnell und rufen nur Informationen aus bestimmten Spalten ab. In unserem durchschnittlichen Gewinn aller Verkäufe, zum Beispiel mit einer spaltenbasierten Datenbank, könnten Sie sich dafür entscheiden, gezielt die Verkaufsspalte statt der Zeilen im Wert von Jahren abzurufen. Die nächsten Datenbanken konzentrieren sich auf die Speicherung. Single-Home-Datenbank sind Datenbanken, in denen alle Daten am selben physischen Ort gespeichert sind. Dies ist bei Organisationen, die mit großen Datenmengen arbeiten, weniger häufig. Und sie werden immer seltener, da immer mehr Unternehmen ihre Datenspeicherung auf Online- und Cloud-Anbieter verlagern. Heutzutage sind verteilte Datenbanken eine Sammlung von Datensystemen, die über mehrere physische Standorte verteilt sind. Betrachten Sie sie wie Telefonbücher: Es ist eigentlich nicht möglich, alle Telefonnummern der Welt in einem Buch aufzubewahren, das wäre riesig. Stattdessen werden die Telefonnummern nach Standort und auf mehrere Bücher aufgeteilt, um sie übersichtlicher zu machen. Schließlich haben wir mehr Möglichkeiten, Daten zu speichern und zu verarbeiten. Kombinierte Systeme, unsere Datenbanksysteme, die Daten am selben Ort speichern und analysieren. Hierbei handelt es sich um eine traditionellere Einrichtung, da Benutzer so auf alle Daten zugreifen können, die langfristig im System verbleiben müssen. Es kann jedoch unhandlich werden, je mehr Daten hinzugefügt werden. Wie der Name schon sagt, handelt es sich bei getrennten Speicher- und Computersystemen um Datenbanken, in denen weniger relevante Daten remote gespeichert werden. Und die relevanten Daten werden zur Analyse lokal gespeichert.
Video abspielen, beginnend bei :6:13 und dem Transkript folgen6:13
Dadurch kann das System analytische Abfragen effizienter ausführen, da Sie mit relevanten Daten interagieren. Darüber hinaus ist es möglich, Speicher und Berechnungen unabhängig voneinander zu skalieren. Wenn Sie beispielsweise viele Daten haben, diese aber nur von wenigen Personen abgefragt werden, benötigen Sie nicht so viel Rechenleistung, was Ressourcen sparen kann. Es gibt viele Aspekte von Datenbanken, die sich auf die Arbeit von BI-Experten auswirken können. Es ist wichtig zu verstehen, ob es sich bei einem System um OLTP oder OLAP, relational oder säulenförmig, verteilt oder Single-Homed, getrennte Speicherung und Datenverarbeitung oder kombiniert oder sogar um eine Kombination davon handelt. Demnächst werden wir noch ausführlicher auf die Organisation von Daten eingehen.

Checkliste für den Datenbankvergleich

In dieser Lektion haben Sie die verschiedenen Aspekte von Datenbanken kennengelernt und erfahren, wie sie die Funktionsweise eines Business-Intelligence-Systems beeinflussen. Das Datenbank-Framework – einschließlich der Art und Weise, wie Plattformen organisiert sind und wie Daten gespeichert und verarbeitet werden – beeinflusst die Art und Weise, wie Daten verwendet werden. Daher hilft Ihnen das Verständnis verschiedener Technologien, fundiertere Entscheidungen über die von Ihnen erstellten BI-Tools und -Prozesse zu treffen. Diese Lektüre bietet eine Aufschlüsselung der Datenbanken, einschließlich OLAP, OLTP, zeilenbasierter, spaltenbasierter, verteilter, Single-Homed-, getrennter Speicherung und Datenverarbeitung sowie kombinierter Datenbanken.

OLAP versus OLTP

DatenbanktechnologieBeschreibungVerwenden
OLAPOnline Analytical Processing (OLAP)-Systeme sind Datenbanken, die hauptsächlich für die Analyse optimiert wurden.
  • Bieten Sie Benutzern Zugriff auf Daten aus verschiedenen Quellsystemen
  • Wird von BI- und anderen Datenexperten zur Unterstützung von Entscheidungsprozessen verwendet
  • Analysieren Sie Daten aus mehreren Datenbanken
  • Ziehen Sie umsetzbare Erkenntnisse aus den in Berichtstabellen bereitgestellten Daten
OLTPOnline-Transaktionsverarbeitungssysteme (OLTP) sind Datenbanken, die für die Datenverarbeitung statt für die Analyse optimiert wurden.
  • Transaktionsdaten speichern
  • Wird von Mitarbeitern mit Kundenkontakt oder von Self-Service-Anwendungen für Kunden verwendet
  • Einzelne Datenzeilen lesen, schreiben und aktualisieren
  • Sie fungieren als Quellsysteme, aus denen Datenpipelines zur Analyse abgerufen werden können

Zeilenbasiert versus spaltenbasiert

DatenbanktechnologieBeschreibungVerwenden
ZeilenbasiertZeilenbasierte Datenbanken sind nach Zeilen organisiert.
  • Traditionelle, einfach zu schreibende Datenbankorganisation, die typischerweise in OLTP-Systemen verwendet wird
  • Schreibt Daten sehr schnell
  • Speichert alle Werte einer Zeile zusammen
  • Einfache Optimierung durch Indizierung
SäulenförmigSpaltendatenbanken sind nach Spalten statt nach Zeilen organisiert.
  • Neuere Form der Datenbankorganisation, die typischerweise zur Unterstützung von OLAP-Systemen verwendet wird
  • Lesen Sie Daten schneller und rufen Sie nur die für die Analyse erforderlichen Daten ab
  • Speichert die Spalten mehrerer Zeilen zusammen

Verteilt versus Einfamilienhaus

DatenbanktechnologieBeschreibungVerwenden
VerteiltVerteilte Datenbanken sind Sammlungen von Datensystemen, die über mehrere physische Standorte verteilt sind.
  • Lässt sich leicht erweitern, um steigenden oder größeren Geschäftsanforderungen gerecht zu werden
  • Zugriff aus verschiedenen Netzwerken
  • Einfacher zu sichern als ein Single-Homed-Datenbanksystem
EinfamilienhausSingle-Homed-Datenbanken sind Datenbanken, bei denen alle Daten am selben physischen Ort gespeichert sind.
  • An einem einzigen Ort gespeicherte Daten sind leichter zugänglich und teamübergreifend zu koordinieren
  • Reduziert Datenredundanz
  • Günstiger im Unterhalt als größere, komplexere Systeme

Getrennte Speicherung und Rechenleistung im Vergleich zu kombiniert

DatenbanktechnologieBeschreibungVerwenden
Getrennte Speicherung und RechenleistungGetrennte Speicher- und Computersysteme sind Datenbanken, in denen weniger relevante Daten remote gespeichert werden und relevante Daten zur Analyse lokal gespeichert werden.
  • Führen Sie analytische Abfragen effizienter aus, da das System nur die relevantesten Daten verarbeiten muss
  • Skalieren Sie Rechenressourcen und Speichersysteme separat basierend auf den individuellen Anforderungen Ihres Unternehmens
Kombinierte Speicherung und RechenleistungKombinierte Systeme sind Datenbanksysteme, die Daten am selben Ort speichern und analysieren.
  • Traditionelles Setup, das Benutzern den gleichzeitigen Zugriff auf alle möglichen Daten ermöglicht
  • Speicher- und Rechenressourcen sind miteinander verknüpft, sodass die Ressourcenverwaltung unkompliziert ist

Die Form der Daten

Video 47

Sie haben sich mit Datenmodellierung und Datenbankschemata sowie der Verwendung verschiedener Datenbanktypen in BI befasst. Jetzt werden wir untersuchen, wie diese Konzepte zum Entwerfen von Data Warehouses verwendet werden können. Aber bevor wir uns mit dem Data-Warehouse-Design befassen, wollen wir noch einmal auffrischen, was ein Data-Warehouse eigentlich ist. Wie Sie sich wahrscheinlich von früher in diesem Kurs erinnern, ist eine Datenbank eine Sammlung von Daten, die in einem Computersystem gespeichert sind. Nun, ein Data Warehouse ist eine spezielle Art von Datenbank, die Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten. Data Warehouses werden zur Unterstützung datengesteuerter Entscheidungsfindung eingesetzt. Häufig werden diese Systeme von Data-Warehousing-Spezialisten verwaltet, BI-Experten können jedoch beim Entwurf eines Data-Warehouses mithelfen. Es gibt ein paar wichtige Dinge, die BI-Experten berücksichtigen sollten. Geschäftsanforderungen, die Form und das Volumen der Daten sowie das Modell, dem das Data Warehouse folgen wird. Geschäftsanforderungen sind die Fragen, die die Organisation beantworten möchte, oder die Probleme, die sie lösen möchte. Anhand dieser Anforderungen lässt sich bestimmen, wie die Daten gespeichert und organisiert werden. Beispielsweise stellt ein Krankenhaus, das Patientenakten speichert, um gesundheitliche Veränderungen zu überwachen, andere Datenanforderungen als ein Finanzunternehmen, das Markttrends analysiert, um Investitionsstrategien festzulegen. Als Nächstes untersuchen wir die Form und das Volumen der Daten aus dem Quellsystem. Typischerweise bezieht sich die Form der Daten auf die Zeilen und Spalten von Tabellen im Warehouse und deren Anordnung. Das aktuelle und zukünftige Datenvolumen verändert auch die Art und Weise, wie das Lager konzipiert ist, und das Modell, dem das Lager folgen wird, umfasst alle Tools und Einschränkungen des Systems, wie z. B. die Datenbank selbst und alle Analysetools, die in das System integriert werden . Kehren wir zu unserem Buchladen-Beispiel zurück, um dessen Data Warehouse zu entwickeln. Wir müssen zunächst mit den Stakeholdern zusammenarbeiten, um ihre Geschäftsanforderungen zu ermitteln. Später haben Sie Gelegenheit, mehr über das Sammeln von Informationen von Stakeholdern zu erfahren. Aber nehmen wir zunächst einmal an, dass sie uns mitteilen, dass sie an der Messung der Filialrentabilität und des Website-Verkehrs interessiert sind, um die Wirksamkeit jährlicher Werbeaktionen zu bewerten. Jetzt können wir uns die Form der Daten ansehen. Berücksichtigen Sie die Geschäftsprozesse oder Ereignisse, die von Tabellen im System erfasst werden, da es sich um ein Einzelhandelsgeschäft handelt. Der primäre Geschäftsprozess ist der Verkauf. Wir könnten eine Verkaufstabelle haben, die Informationen wie die bestellte Menge, den Gesamtbetrag, den Gesamtsteuerbetrag, die Gesamtrabatte und den Gesamtnettobetrag enthält. Dies sind die Fakten zur Auffrischung. Ein Fakt ist eine Messung oder Metrik, die im Geschäftsprozess verwendet wird. Diese Fakten könnten mit einer Reihe von Dimensionstabellen in Zusammenhang stehen, die mehr Kontext bieten. Beispielsweise können Filiale, Kundenproduktwerbung, Zeit, Lagerbestand oder Währung Dimensionen sein. Die Informationen in diesen Tabellen geben unseren Faktentabellen, in denen die Geschäftsprozesse und Ereignisse aufgezeichnet werden, mehr Kontext. Beachten Sie, wie sich dieses Datenmodell zu formen beginnt. Es gibt mehrere Dimensionstabellen, die alle mit einer Faktentabelle in der Mitte verbunden sind. Das bedeutet, dass wir gerade ein Sternschema erstellt haben. Mit diesem Modell können Sie die spezifische Frage nach der Wirksamkeit jährlicher Werbeaktionen beantworten und außerdem ein Dashboard mit anderen KPIs und Drill-Down-Berichten erstellen. In diesem Fall begannen wir mit den spezifischen Anforderungen des Unternehmens, schauten uns die vorhandenen Datendimensionen an und organisierten sie in Tabellen, die Beziehungen bildeten. Mithilfe dieser Beziehungen konnten wir feststellen, dass ein Sternschema die nützlichste Methode zur Organisation dieses Data Warehouse ist. Wenn Sie die Logik hinter dem Data-Warehouse-Design verstehen, können Sie neue Prozesse und Systeme effektiver entwickeln, mehr mit Datenbankschemata arbeiten und lernen, wie Daten aus anderen Quellen in das Warehouse eingelesen werden.

Vier Schlüsselelemente von Datenbankschemata

Unabhängig davon, ob Sie ein neues Datenbankmodell erstellen oder ein bereits vorhandenes System erkunden, ist es wichtig sicherzustellen, dass alle Elemente im Schema vorhanden sind. Mit dem Datenbankschema können Sie eingehende Daten validieren, die an Ihre Zieldatenbank übermittelt werden, um Fehler zu vermeiden und sicherzustellen, dass die Daten für Benutzer sofort nützlich sind.

Eine Illustration eines Notizblocks und eines Bleistifts

Hier ist eine Checkliste allgemeiner Elemente, die ein Datenbankschema enthalten sollte:

  • Die relevanten Daten: Das Schema beschreibt, wie die Daten in der Datenbank modelliert und geformt werden, und muss alle beschriebenen Daten umfassen.

  • Namen und Datentypen für jede Spalte: Geben Sie Namen und Datentypen für jede Spalte in jeder Tabelle innerhalb der Datenbank an.

  • Konsistente Formatierung: Stellen Sie eine konsistente Formatierung aller Dateneinträge sicher. Jeder Eintrag ist eine Instanz des Schemas und muss daher konsistent sein.

  • Eindeutige Schlüssel: Das Schema muss für jeden Eintrag in der Datenbank eindeutige Schlüssel verwenden. Diese Schlüssel stellen Verbindungen zwischen den Tabellen her und ermöglichen es Benutzern, relevante Daten aus der gesamten Datenbank zu kombinieren.

Die zentralen Thesen

Wenn Sie mehr Daten erhalten oder sich die Geschäftsanforderungen ändern, müssen möglicherweise auch Datenbanken und Schemata geändert werden. Die Datenbankoptimierung ist ein iterativer Prozess, was bedeutet, dass Sie das Schema während der Nutzungsdauer der Datenbank möglicherweise mehrmals überprüfen müssen. Mithilfe dieser Checkliste können Sie sicherstellen, dass Ihr Datenbankschema funktionsfähig bleibt.

Überprüfen Sie ein Datenbankschema

Bisher haben Sie die Unterschiede zwischen verschiedenen Arten von Datenbankschemata kennengelernt, die Faktoren, die die Wahl der Datenbankschemata beeinflussen, und wie Sie mithilfe von Best Practices ein Datenbankschema für ein Data Warehouse entwerfen.

In dieser Lektüre überprüfen Sie ein Datenbankschema, das für ein fiktives Szenario erstellt wurde, und erkunden die Gründe für seinen Entwurf. In Ihrer Rolle als BI-Experte müssen Sie verstehen, warum eine Datenbank auf eine bestimmte Weise erstellt wurde.

Datenbankschema 

Francisco’s Electronics eröffnet einen E-Commerce-Shop für seine neue Home-Office-Produktlinie. Im Erfolgsfall planen Unternehmensentscheider, auch die restlichen Produkte online zu stellen. Das Unternehmen engagierte Mia, eine leitende BI-Ingenieurin, um bei der Gestaltung seines Data Warehouse zu helfen. Die Datenbank musste Auftragsdaten für Analysen und Berichte speichern, und der Vertriebsleiter musste schnell Berichte erstellen, um die Verkäufe zu verfolgen, damit der Erfolg der Website bestimmt werden konnte.

Unten finden Sie ein Diagramm des Schemas der sales_warehouse -Datenbank, die Mia entworfen hat. Es enthält verschiedene Symbole und Anschlüsse, die zwei wichtige Informationen darstellen: die Haupttabellen innerhalb des Systems und die Beziehungen zwischen diesen Tabellen.

Das sales_warehouse-Datenbankschema. Die Tabelle „Verkäufe“ stellt eine Verbindung zu den Tabellen „Produkte“, „Benutzer“, „Standorte“ und „Bestellungen“ her.

Das Datenbankschema sales_warehouse enthält fünf Tabellen: Sales, Products, Users, Locations und Orders, die über Schlüssel verbunden sind. Die Tabellen enthalten fünf bis acht Spalten (oder Attribute) unterschiedlicher Datentypen. Zu den Datentypen gehören varchar oder char (oder Zeichen), Ganzzahl, Dezimalzahl, Datum, Text (oder Zeichenfolge), Zeitstempel, Bit und andere Typen, abhängig vom gewählten Datenbanksystem.

Überprüfen Sie das Datenbankschema

Um ein Datenbankschema zu verstehen, ist es hilfreich, den Zweck der Verwendung bestimmter Datentypen und die Beziehungen zwischen Feldern zu verstehen. Die Antworten auf die folgenden Fragen rechtfertigen, warum Mia das Schema von Franciscos Elektronik auf diese Weise entworfen hat:

  • Was für ein Datenbankschema ist das? Warum wurde dieser Datenbanktyp ausgewählt? 

Mia hat die Datenbank mit einem Sternschema entworfen , da Francisco’s Electronics diese Datenbank für Berichte und Analysen verwendet. Zu den Vorteilen des Star-Schemas gehören einfachere Abfragen, vereinfachte Geschäftsberichtslogik, höhere Abfrageleistung und schnelle Aggregationen. 

  • Welche Namenskonventionen werden für die Tabellen und Felder verwendet? Gibt es Vorteile bei der Verwendung dieser Namenskonventionen? 

Dieses Schema verwendet eine Namenskonvention für Groß- und Kleinschreibung. Im Schlangenfall ersetzen Unterstriche Leerzeichen und der erste Buchstabe jedes Wortes ist ein Kleinbuchstabe. Die Verwendung einer Namenskonvention trägt zur Wahrung der Konsistenz bei und verbessert die Lesbarkeit der Datenbank. Da „Snake Case“ für Tabellen und Felder ein Industriestandard ist, hat Mia ihn in der Datenbank verwendet.

  • Was ist der Zweck der Verwendung der Dezimalfelder in Datenelementen? 

Bei Feldern, die sich auf Geld beziehen, kann es bei der Berechnung von Preisen, Steuern und Gebühren zu Fehlern kommen. Möglicherweise haben Sie Werte, die technisch unmöglich sind, z. B. einen Wert von 0,001 US-Dollar, während der kleinste Wert für den US-Dollar einen Cent oder 0,01 US-Dollar beträgt. Um die Werte konsistent zu halten und akkumulierte Fehler zu vermeiden, verwendete Mia einen Datentyp „decimal(10,2)“ , der nur die letzten beiden Ziffern nach dem Dezimalpunkt behält. 

Hinweis: Andere numerische Werte wie Wechselkurse und Mengen benötigen möglicherweise zusätzliche Dezimalstellen, um Rundungsdifferenzen bei Berechnungen zu minimieren. Außerdem sind andere Datentypen möglicherweise besser für andere Felder geeignet. Um zu verfolgen, wann eine Bestellung erstellt wird ( created_at ), können Sie einen Zeitstempel-Datentyp verwenden. Für andere Felder mit unterschiedlichen Textgrößen können Sie Varchar verwenden. 

  • Welchen Zweck haben die einzelnen Fremd- und Primärschlüssel in der Datenbank?

Mia entwarf die Sales-Tabelle mit einer Primärschlüssel-ID und fügte Fremdschlüssel in die anderen Tabellen ein, um auf die Primärschlüssel zu verweisen. Die Fremdschlüssel müssen vom gleichen Datentyp sein wie die entsprechenden Primärschlüssel. Wie Sie erfahren haben, identifizieren Primärschlüssel eindeutig genau einen Datensatz in einer Tabelle, und Fremdschlüssel stellen Integritätsreferenzen von diesem Primärschlüssel zu Datensätzen in anderen Tabellen her.

Verkaufstabellenschlüssel-ID und Fremdschlüssel

Zugehöriger Tisch

Auftragsnummer 

Bestelltabelle

Produkt ID 

Produkttabelle

Benutzer-ID

Benutzertabelle

Versandadresse_ID

Standorttabelle

billing_address_id

Standorttabelle

Die zentralen Thesen

In dieser Lektüre haben Sie untersucht, warum ein Datenbankschema auf eine bestimmte Weise entworfen wurde. In der Welt der Business Intelligence verbringen Sie viel Zeit damit, Geschäftsabläufe anhand von Daten zu modellieren, Daten zu untersuchen und Datenbanken zu entwerfen. Sie können Ihr Wissen über den Entwurf dieses Datenbankschemas anwenden, um in Zukunft Ihre eigenen Datenbanken zu erstellen. Dadurch können Sie in Ihrer Karriere als BI-Experte Daten effizienter nutzen und speichern.

Datenpipelines und der ETL-Prozess

Video 49

Bisher haben wir viel darüber gelernt, wie Daten in Data Warehouses organisiert und gespeichert werden und wie Schemata diese Systeme beschreiben. Ein Teil Ihrer Aufgabe als BI-Experte besteht darin, ein Data Warehouse aufzubauen und zu pflegen und dabei alle vorhandenen Systeme zu berücksichtigen, die Datenpunkte sammeln und erstellen. Um diesen Prozess zu erleichtern, nutzen wir Datenpipelines. Zur Erinnerung: Eine Datenpipeline ist eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren. Dadurch wird der Datenfluss von der Quelle zum Ziel automatisiert und gleichzeitig werden die Daten so transformiert, dass sie nutzbar sind, sobald sie ihr Ziel erreichen. Mit anderen Worten: Datenpipelines werden verwendet, um Daten von Punkt A nach Punkt B zu transportieren, automatisch Zeit und Ressourcen zu sparen und Daten zugänglicher und nützlicher zu machen. Grundsätzlich dienen Datenpipelines dazu, herauszufinden, welche Daten wo und wie kombiniert werden. Sie automatisieren die Prozesse beim Extrahieren, Transformieren, Kombinieren, Validieren und Laden von Daten zur weiteren Analyse und Visualisierung. Effektive Datenpipelines tragen außerdem dazu bei, Fehler zu vermeiden und Systemlatenz zu bekämpfen. Es wäre sehr zeitaufwändig, Daten immer wieder manuell verschieben zu müssen, wann immer jemand danach fragt, oder einen Bericht wiederholt zu aktualisieren. Wenn beispielsweise eine Wetterstation täglich Informationen über die Wetterbedingungen erhält, ist es aufgrund der schieren Menge schwierig, diese manuell zu verwalten. Sie brauchen ein System, das die Daten aufnimmt und dorthin bringt, wo sie benötigt werden, damit sie in Erkenntnisse umgewandelt werden können. Einer der nützlichsten Aspekte einer Datenpipeline besteht darin, dass sie Daten aus mehreren Quellen abrufen, konsolidieren und dann an ihr richtiges Ziel migrieren kann. Zu diesen Quellen können relationale Datenbanken, eine Website-Anwendung mit Transaktionsdaten oder eine externe Datenquelle gehören. Normalerweise verfügt die Pipeline über einen Push-Mechanismus, der es ihr ermöglicht, Daten aus mehreren Quellen nahezu in Echtzeit oder in regelmäßigen Abständen aufzunehmen. Sobald die Daten in die Pipeline gezogen wurden, können sie an ihr Ziel geladen werden. Dabei kann es sich um ein Data Warehouse, einen Data Lake oder einen Data Mart handeln, worüber wir später noch mehr erfahren werden. Oder es kann zur sofortigen Analyse direkt in eine BI- oder Analyseanwendung übernommen werden. Während Daten von Punkt A nach Punkt B verschoben werden, transformiert die Pipeline häufig auch die Daten. Zu den Transformationen gehören Sortieren, Validieren und Verifizieren, wodurch die Daten einfacher zu analysieren sind. Dieser Prozess wird als ETL-System bezeichnet. ETL steht für Extrahieren, Transformieren und Laden. Hierbei handelt es sich um eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen. ETL wird immer mehr zum Standard für Datenpipelines. Wir werden später mehr darüber erfahren. Nehmen wir an, ein Business-Analyst hat Daten an einem Ort und muss sie an einen anderen verschieben, dann kommt eine Datenpipeline ins Spiel. Doch oft ist die Struktur des Quellsystems nicht ideal für die Analyse, weshalb ein BI eingesetzt wird Der Fachmann möchte diese Daten umwandeln, bevor sie das Zielsystem erreichen, und warum es so wichtig ist, Datenbankschemata festgelegt zu haben, die bereits entworfen und für den Datenempfang bereit sind. Lassen Sie uns diese Schritte nun etwas genauer untersuchen. Wir können uns eine Datenpipeline vorstellen, die in drei Phasen funktioniert: Sie erfasst die Rohdaten, verarbeitet und konsolidiert sie in Kategorien und speichert die Daten in Berichtstabellen, auf die Benutzer zugreifen können. Diese Berichtstabellen werden als Zieltabellen bezeichnet. Zieltabellen sind die vorgegebenen Orte, an die Pipeline-Daten gesendet werden, damit darauf reagiert werden kann. Die Verarbeitung und Transformation von Daten während der Verschiebung ist wichtig, da dadurch sichergestellt wird, dass die Daten bei ihrer Ankunft einsatzbereit sind. Aber lassen Sie uns diesen Prozess in Aktion untersuchen. Angenommen, wir arbeiten mit einem Online-Streaming-Dienst zusammen, um eine Datenpipeline zu erstellen. Zunächst möchten wir das Endziel unserer Pipeline betrachten. In diesem Beispiel möchten unsere Stakeholder die demografischen Merkmale ihrer Zuschauer verstehen, um Marketingkampagnen zu unterstützen. Dazu gehören Informationen über das Alter und die Interessen der Zuschauer sowie deren Standort. Sobald wir das Ziel der Stakeholder ermittelt haben, können wir darüber nachdenken, welche Daten die Pipeline aufnehmen soll. In diesem Fall benötigen wir demografische Daten über die Kunden. Unsere Stakeholder sind an monatlichen Berichten interessiert. Wir können unsere Pipeline so einrichten, dass sie in monatlichen Abständen automatisch die gewünschten Daten abruft. Sobald die Daten aufgenommen wurden, soll unsere Pipeline auch einige Transformationen durchführen, damit sie sauber und konsistent sind, sobald sie an unsere Zieltabellen übermittelt werden. Beachten Sie, dass diese Tabellen bereits in unserer Datenbank zum Empfangen der Daten eingerichtet wurden. Jetzt haben wir die demografischen Daten unserer Kunden und ihre monatlichen Streaming-Gewohnheiten in einer Tabelle, mit der wir arbeiten können. Das Tolle an Datenpipelines ist, dass sie nach ihrer Erstellung so geplant werden können, dass sie automatisch regelmäßig Aufgaben ausführen. Dies bedeutet, dass sich die Mitglieder des BI-Teams darauf konzentrieren können, aus den Daten geschäftliche Erkenntnisse zu gewinnen, anstatt diesen Prozess immer wieder wiederholen zu müssen. Als BI-Experte besteht ein großer Teil Ihrer Arbeit darin, diese Systeme zu erstellen, sicherzustellen, dass sie ordnungsgemäß funktionieren, und sie zu aktualisieren, wenn sich die Geschäftsanforderungen ändern. Der wertvolle Vorteil, den Ihr Team wirklich zu schätzen wissen wird.

Maximieren Sie Daten durch den ETL-Prozess

Video 50

Wir haben viel über Datenpipelines und ihre Funktionsweise gelernt. Jetzt werden wir eine bestimmte Art von Pipeline besprechen: ETL. Ich habe bereits erwähnt, dass ETL es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen. Wie andere Pipelines arbeiten ETL-Prozesse in Phasen, und diese Phasen sind Extrahieren, Transformieren und Laden. Beginnen wir mit der Extraktion. In dieser Phase greift die Pipeline auf ein Quellsystem zu und liest und sammelt dann die erforderlichen Daten daraus. Viele Organisationen speichern ihre Daten in Transaktionsdatenbanken wie OLTP-Systemen, die sich hervorragend zum Protokollieren von Datensätzen eignen, oder das Unternehmen verwendet möglicherweise Flatfiles, beispielsweise HTML- oder Protokolldateien. In jedem Fall macht ETL die Daten für die Analyse nutzbar, indem es sie aus ihrer Quelle extrahiert und in eine temporäre Staging-Tabelle verschiebt. Als nächstes haben wir die Transformation. Die spezifischen Transformationsaktivitäten hängen von der Struktur und dem Format des Ziels sowie den Anforderungen des Geschäftsfalls ab. Wie Sie jedoch erfahren haben, umfassen diese Transformationen im Allgemeinen die Validierung, Bereinigung und Vorbereitung der Daten für die Analyse. In dieser Phase ordnet die ETL-Pipeline auch die Datentypen von den Quellen den Zielsystemen zu, sodass die Daten den Zielkonventionen entsprechen. Schließlich haben wir die Ladephase. Dies ist der Zeitpunkt, an dem Daten an ihr Ziel geliefert werden. Das kann ein Data Warehouse, ein Data Lake oder eine Analyseplattform sein, die mit direkten Datenfeeds arbeitet. Beachten Sie, dass die Daten nach der Übermittlung an mehreren Standorten in mehreren Formaten vorhanden sein können. Beispielsweise könnte es eine Snapshot-Tabelle geben, die die Daten einer Woche abdeckt, und ein größeres Archiv, das einige der gleichen Datensätze enthält. Dies trägt dazu bei, sicherzustellen, dass die historischen Daten im System verwaltet werden, und stellt gleichzeitig den Stakeholdern fokussierte, aktuelle Daten zur Verfügung. Wenn das Unternehmen daran interessiert ist, die durchschnittlichen monatlichen Umsätze zu verstehen und zu vergleichen, werden die Daten in ein OLAP-System verschoben, das für Analyseabfragen optimiert wurde. ETL-Prozesse sind eine gängige Art von Datenpipeline, die BI-Experten häufig erstellen und mit der sie interagieren. Demnächst erfahren Sie mehr über diese Systeme und ihre Entstehung.

Wählen Sie das richtige Werkzeug für den Job

Video 51

In früheren Videos haben wir Pipeline-Prozesse untersucht, die Daten aus verschiedenen Quellen aufnehmen, sie entsprechend der Zielformatierung umwandeln und an einen endgültigen Zielort übertragen, an dem Benutzer geschäftliche Erkenntnisse gewinnen können. BI-Experten spielen eine Schlüsselrolle beim Aufbau und der Aufrechterhaltung dieser Prozesse und nutzen eine Vielzahl von Tools, die sie bei der Erledigung ihrer Aufgabe unterstützen. In diesem Video erfahren Sie, wie BI-Profis das richtige Tool auswählen. Als BI-Experte verfügt Ihr Unternehmen wahrscheinlich über bevorzugte Anbieter, was bedeutet, dass Sie eine Reihe verfügbarer BI-Lösungen erhalten. Eines der großartigen Dinge an BI ist, dass verschiedene Tools sehr ähnliche Prinzipien und einen ähnlichen Nutzen haben. Dies ist ein weiteres Beispiel für eine übertragbare Fähigkeit. Mit anderen Worten: Ihr allgemeines Verständnis kann auf andere Lösungen angewendet werden, unabhängig davon, welche Ihr Unternehmen bevorzugt. Das erste Datenbankverwaltungssystem, das ich kennengelernt habe, war beispielsweise Microsoft Access. Diese Erfahrung hat mir geholfen, ein grundlegendes Verständnis dafür zu erlangen, wie man Verbindungen zwischen Tabellen herstellt, und hat das Erlernen neuer Tools einfacher gemacht. Später in meiner Karriere, als ich anfing, mit MySQL zu arbeiten, konnte ich die zugrunde liegenden Prinzipien bereits erkennen. Nun ist es möglich, dass Sie die Tools auswählen, die Sie verwenden möchten. Wenn das der Fall ist, sollten Sie die KPIs berücksichtigen, wie Ihre Stakeholder die Daten sehen möchten und wie die Daten verschoben werden müssen. Wie Sie erfahren haben, ist ein KPI ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen. KPIs geben uns Aufschluss darüber, ob wir erfolgreich sind oder nicht, sodass wir unsere Prozesse anpassen können, um unsere Ziele besser zu erreichen. Einige finanzielle KPIs sind beispielsweise die Bruttogewinnmarge, die Nettogewinnmarge und die Kapitalrendite. Oder einige HR-KPIs sind die Beförderungsquote und die Mitarbeiterzufriedenheit. Wenn Sie die KPIs Ihres Unternehmens verstehen, können Sie Tools basierend auf diesen Anforderungen auswählen. Abhängig davon, wie Ihre Stakeholder die Daten anzeigen möchten, stehen Ihnen anschließend verschiedene Tools zur Auswahl. Stakeholder fragen möglicherweise nach Grafiken, statischen Berichten oder Dashboards. Es gibt eine Vielzahl von Tools, darunter Looker Studio, Microsoft, PowerBI und Tableau. Einige andere sind Azura Analysis Service, CloudSQL, Pentaho, SSAS und SSRS SQL Server, die alle über integrierte Berichtstools verfügen. Das sind viele Optionen. Später erhalten Sie weitere Einblicke in diese verschiedenen Tools. Nachdem Sie darüber nachgedacht haben, wie Ihre Stakeholder die Daten anzeigen möchten, sollten Sie über Ihre Back-End-Tools nachdenken. Dies ist der Zeitpunkt, an dem Sie darüber nachdenken, wie die Daten verschoben werden müssen. Beispielsweise können nicht alle BI-Tools Data Lakes lesen. Wenn Ihre Organisation also Data Lakes zum Speichern von Daten verwendet, müssen Sie sicherstellen, dass Sie ein Tool auswählen, das dies kann. Zu den weiteren wichtigen Überlegungen bei der Auswahl Ihrer Back-End-Tools gehören die Frage, wie die Daten übertragen werden, wie sie aktualisiert werden sollen und wie die Pipeline mit anderen Tools im Datentransformationsprozess kombiniert wird.
Video abspielen, beginnend bei :3:5 und dem Transkript folgen3:05
Jeder dieser Punkte hilft Ihnen dabei, die Must-Haves für Ihr Toolset zu ermitteln und so die besten Optionen zu finden. Außerdem ist es wichtig zu wissen, dass Sie am Ende möglicherweise eine Kombination von Tools verwenden, um das ideale System zu erstellen. Wie Sie gelernt haben, verfügen BI-Tools über gemeinsame Funktionen, sodass die in diesen Kursen erworbenen Fähigkeiten unabhängig davon genutzt werden können, mit welchen Tools Sie letztendlich arbeiten. Als ich auf mein Beispiel zurückkam, konnte ich die Logik hinter der Transformation und Kombination von Tabellen verstehen. Ob ich Microsoft Access oder MySQL verwendet habe. Diese Grundlage wurde auf die verschiedenen BI-Tools übertragen, denen ich im Laufe meiner Karriere begegnet bin. In Kürze erfahren Sie mehr über die Lösungen, mit denen Sie in Zukunft arbeiten könnten. Sie werden auch bald damit beginnen, einige Daten in die Hand zu nehmen.

Business-Intelligence-Tools und ihre Anwendungen

Im Laufe Ihrer Business-Intelligence-Karriere werden Sie auf viele verschiedene Tools stoßen. Das Tolle an den Fähigkeiten, die Sie in diesen Kursen gelernt haben, ist, dass sie auf verschiedene Lösungen übertragbar sind. Ganz gleich, welche Tools Sie am Ende verwenden, die Gesamtlogik und die Prozesse werden ähnlich sein! Diese Lektüre bietet einen Überblick über viele dieser Business-Intelligence-Lösungen.

Werkzeug

Verwendet

Azure Analysis Service (AAS)

  • Stellen Sie eine Verbindung zu einer Vielzahl von Datenquellen her

  • Eingebaute Datensicherheitsprotokolle

  • Gewähren Sie Zugriff und weisen Sie teamübergreifend Rollen zu

  • Automatisieren Sie grundlegende Prozesse

CloudSQL

  • Stellen Sie eine Verbindung zu vorhandenen MySQL-, PostgreSQL- oder SQL Server-Datenbanken her

  • Automatisieren Sie grundlegende Prozesse

  • Integrieren Sie bestehende Apps und Google Cloud-Dienste, einschließlich BigQuery

  • Beobachten Sie Datenbankprozesse und nehmen Sie Änderungen vor

Looker Studio

  • Visualisieren Sie Daten mit anpassbaren Diagrammen und Tabellen

  • Stellen Sie eine Verbindung zu einer Vielzahl von Datenquellen her

  • Teilen Sie Erkenntnisse intern mit Stakeholdern und online

  • Arbeiten Sie teamübergreifend zusammen, um Berichte zu erstellen

  • Verwenden Sie Berichtsvorlagen, um Ihre Berichterstattung zu beschleunigen

Microsoft PowerBI

  • Stellen Sie eine Verbindung zu mehreren Datenquellen her und entwickeln Sie detaillierte Modelle

  • Erstellen Sie personalisierte Berichte

  • Nutzen Sie KI, um mithilfe von Konversationssprachen schnelle Antworten zu erhalten

  • Arbeiten Sie teamübergreifend zusammen, um Erkenntnisse über Microsoft-Anwendungen zu generieren und auszutauschen

Pentaho

  • Entwickeln Sie Pipelines mit einer codelosen Schnittstelle

  • Stellen Sie eine Verbindung zu Live-Datenquellen her, um aktualisierte Berichte zu erhalten

  • Stellen Sie Verbindungen zu einer erweiterten Bibliothek her

  • Greifen Sie auf ein integriertes Data-Science-Toolkit zu

SSAS SQL Server

  • Greifen Sie auf Daten in mehreren Online-Datenbanken zu und analysieren Sie diese

  • Integrieren Sie sich in vorhandene Microsoft-Dienste, einschließlich BI- und Data-Warehousing-Tools und SSRS SQL Server

  • Nutzen Sie integrierte Reporting-Tools

Malerei

  • Daten schnell verbinden und visualisieren

  • Analysieren Sie Daten ohne technische Programmiersprachen

  • Stellen Sie eine Verbindung zu einer Vielzahl von Datenquellen her, darunter Tabellenkalkulationen, Datenbanken und Cloud-Quellen

  • Kombinieren Sie mehrere Ansichten der Daten in intuitiven Dashboards

  • Bauen Sie Live-Verbindungen mit aktualisierten Datenquellen ein

ETL-spezifische Tools und ihre Anwendungen

In einer früheren Lektüre haben Sie eine Liste gängiger Business-Intelligence-Tools und einige ihrer Einsatzmöglichkeiten erhalten. Viele von ihnen verfügen über eine integrierte Pipeline-Funktionalität, es gibt jedoch auch einige ETL-spezifische Tools, auf die Sie möglicherweise stoßen. Das Erstellen von Pipeline-Systemen – einschließlich ETL-Pipelines, die Daten zwischen verschiedenen Datenquellen in die Zieldatenbank verschieben und umwandeln – ist ein großer Teil der Arbeit eines BI-Experten. Daher kann es sehr nützlich sein, eine Vorstellung davon zu haben, welche Tools verfügbar sind. Diese Lektüre gibt einen Überblick.

Werkzeug

Verwendet

Apache Nifi

  • Verbinden Sie eine Vielzahl von Datenquellen

  • Greifen Sie auf eine webbasierte Benutzeroberfläche zu

  • Konfigurieren und ändern Sie Pipeline-Systeme nach Bedarf

  • Ändern Sie die Datenbewegung durch das System jederzeit

Google DataFlow

  • Synchronisieren oder replizieren Sie Daten über eine Vielzahl von Datenquellen hinweg

  • Identifizieren Sie Pipeline-Probleme mit intelligenten Diagnosefunktionen

  • Verwenden Sie SQL, um Pipelines über die BigQuery-Benutzeroberfläche zu entwickeln

  • Planen Sie Ressourcen, um die Kosten für die Stapelverarbeitung zu senken

  • Verwenden Sie Pipeline-Vorlagen, um den Pipeline-Erstellungsprozess anzukurbeln und Systeme in Ihrem Unternehmen gemeinsam zu nutzen

IBM InfoSphere Information Server

  • Integrieren Sie Daten über mehrere Systeme hinweg

  • Verwalten und erkunden Sie die verfügbaren Daten

  • Verbessern Sie die Geschäftsausrichtung und -prozesse

  • Analysieren und überwachen Sie Daten aus mehreren Datenquellen

Microsoft SQL SIS

  • Verbinden Sie Daten aus verschiedenen Quellen durch Integration

  • Verwenden Sie integrierte Transformationstools

  • Greifen Sie auf grafische Tools zu, um Lösungen ohne Programmieraufwand zu erstellen

  • Generieren Sie benutzerdefinierte Pakete, um spezifische Geschäftsanforderungen zu erfüllen

Oracle-Datenintegrator

  • Verbinden Sie Daten aus verschiedenen Quellen

  • Verfolgen Sie Änderungen und überwachen Sie die Systemleistung mit integrierten Funktionen

  • Greifen Sie auf Systemüberwachungs- und Drilldown-Funktionen zu

  • Reduzieren Sie die Überwachungskosten durch Zugriff auf integrierte Oracle-Dienste

Pentaho Datenintegrator

  • Verbinden Sie Daten aus verschiedenen Quellen

  • Erstellen Sie codelose Pipelines mit Drag-and-Drop-Schnittstelle

  • Greifen Sie zur einfachen Verwendung auf Datenflussvorlagen zu

  • Analysieren Sie Daten mit integrierten Tools

Talend

  • Verbinden Sie Daten aus verschiedenen Quellen

  • Entwerfen, implementieren und verwenden Sie eine Pipeline von einem Cloud-Server aus wieder

  • Greifen Sie mit integrierten Talend-Diensten auf Daten zu und suchen Sie nach ihnen

  • Bereinigen und bereiten Sie Daten mit integrierten Tools vor

Einführung in Dataflow

Video 52

Vor kurzem haben Sie Datenpipelines kennengelernt. Sie lernen, dass viele der Vorgehensweisen und Erkenntnisse eines Pipeline-Tools auf andere Lösungen übertragen werden können. In diesem Kurs verwenden wir also Google Dataflow. Aber auch wenn Sie am Ende mit einem anderen Pipeline-Tool arbeiten, sind die damit verbundenen Fähigkeiten und Schritte sehr nützlich. Und die Verwendung von Google Dataflow ist jetzt eine großartige Gelegenheit, alles, was Sie bisher gelernt haben, in die Praxis umzusetzen. Wir beginnen damit, Ihnen den Datenfluss vorzustellen und seine grundlegenden Dienstprogramme durchzugehen. Später werden Sie dieses Tool verwenden, um einige grundlegende BI-Aufgaben auszuführen und Ihre eigene Pipeline einzurichten. Google Data Flow ist ein serverloser Datenverarbeitungsdienst, der Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt. Dataflow erstellt Pipelines mit Open-Source-Bibliotheken, mit denen Sie in verschiedenen Sprachen, einschließlich Python und SQL, interagieren können. Dataflow umfasst eine Auswahl vorgefertigter Vorlagen, die Sie anpassen oder SQL-Anweisungen verwenden können, um Ihre eigenen Pipelines zu erstellen. Das Tool enthält außerdem Sicherheitsfunktionen, die zum Schutz Ihrer Daten beitragen. Okay, lasst uns Dataflow öffnen und es jetzt gemeinsam erkunden. Zuerst melden wir uns an und gehen zur Konsole. Sobald die Konsole geöffnet ist, suchen wir die Seite „Jobs“. Wenn Sie Dataflow zum ersten Mal verwenden, wird die Meldung angezeigt, dass keine Jobs angezeigt werden sollen. Auf der Jobseite finden wir aktuelle Jobs in unserem Projektbereich. Es gibt Optionen zum Erstellen von Jobs aus einer Vorlage oder zum Erstellen von Jobs aus SQL. Snapshot speichert den aktuellen Status einer Streaming-Pipeline, sodass Sie eine neue Version starten können, ohne die aktuelle zu verlieren. Dies eignet sich hervorragend zum Testen Ihrer Pipelines, zum nahtlosen Aktualisieren für Benutzer sowie zum Sichern und Wiederherstellen alter Versionen. Der Abschnitt „Pipeline“ enthält eine Liste der von Ihnen erstellten Pipelines. Auch hier gilt: Wenn Sie den Datenfluss zum ersten Mal verwenden, werden die Prozesse angezeigt, die Sie aktivieren müssen, bevor Sie mit dem Aufbau von Pipelines beginnen können. Jetzt ist ein guter Zeitpunkt dafür. Klicken Sie einfach auf „Alle reparieren“, um die API-Funktionen zu aktivieren und Ihren Standort festzulegen.
Video abspielen, beginnend bei :2:2 und dem Transkript folgen2:02
Im Abschnitt „Notebook“ können Sie gemeinsam nutzbare Jupyter-Notebooks mit Live-Code erstellen und speichern.
Video abspielen, beginnend bei :2:8 und dem Transkript folgen2:08
Dies ist nützlich für Erstbenutzer des ETL-Tools, um Beispiele auszuprobieren und die Transformationen zu visualisieren.
Video abspielen, beginnend bei :2:15 und das Transkript folgt2:15
Schließlich haben wir den SQL-Arbeitsbereich. Wenn Sie bereits mit BigQuery gearbeitet haben, beispielsweise mit dem Google Data Analytics-Zertifikat, wird Ihnen das bekannt sein. Hier schreiben und führen Sie SQL-Abfragen aus, während Sie in Dataflow arbeiten, und schon kann es losgehen. Jetzt können Sie sich bei Google Dataflow anmelden und es auf eigene Faust erkunden. Wir werden bald noch viele weitere Möglichkeiten haben, mit diesem Tool zu arbeiten.

Leitfaden zum Datenfluss

Wie Sie erfahren haben, ist Dataflow ein serverloser Datenverarbeitungsdienst, der Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt. Dataflow erstellt Pipelines mit Open-Source-Bibliotheken, mit denen Sie in verschiedenen Sprachen, einschließlich Python und SQL, interagieren können. Diese Lektüre enthält Informationen zum Zugriff auf Dataflow und seiner Funktionalität. 

Navigieren Sie auf der Homepage

Wenn Sie das optionale abgeschlossen habenErstellen Sie ein Google Cloud-Konto Aktivität können Sie die Schritte dieser Lektüre in Ihrer Dataflow-Konsole verfolgen. Gehe zumDatenfluss Google CloudStartseite und melden Sie sich bei Ihrem Konto an, um auf Dataflow zuzugreifen. Klicken Sie dann auf die Schaltfläche „Zur Konsole gehen“ oder die Schaltfläche „Konsole“ . Hier können Sie neue Jobs erstellen und auf Dataflow-Tools zugreifen.

Google Cloud-Plattform mit hervorgehobener Option „Zur Konsole gehen“.

Arbeitsplätze 

Wenn Sie die Konsole zum ersten Mal öffnen, finden Sie die Seite „Jobs“ . Auf der Seite „Jobs“ befinden sich Ihre aktuellen Jobs in Ihrem Projektbereich. Auf dieser Seite gibt es auch die Optionen JOB AUS VORLAGE ERSTELLEN oder VERWALTETE DATEN-PIPELINE ERSTELLEN, sodass Sie in Ihrer Dataflow-Konsole mit einem neuen Projekt beginnen können. Hierher kommen Sie jederzeit, wenn Sie etwas Neues beginnen möchten. 

Seite „Dataflow-Jobs“.

Pipelines

Öffnen Sie den Menübereich, um durch die Konsole zu navigieren und die anderen Seiten in Dataflow zu finden. Das Menü „Pipelines“ enthält eine Liste aller von Ihnen erstellten Pipelines. Wenn Sie Dataflow zum ersten Mal verwenden, werden auch die Prozesse angezeigt, die Sie aktivieren müssen, bevor Sie mit dem Aufbau von Pipelines beginnen können. Wenn Sie die APIs noch nicht aktiviert haben, klicken Sie auf „Alle reparieren“ , um die API-Funktionen zu aktivieren und Ihren Standort festzulegen. 

Das Dataflow-Pipelines-Menü in einer Dataflow-Konsole

Werkbank 

Im Workbench- Bereich können Sie gemeinsam nutzbare Jupyter-Notebooks mit Live-Code erstellen und speichern. Dies ist hilfreich für Erstbenutzer des ETL-Tools, um Beispiele auszuprobieren und die Transformationen zu visualisieren. 

Das Dataflow Workbench-Menü in einer Dataflow-Konsole

Schnappschüsse

Snapshots speichern den aktuellen Status einer Pipeline, um neue Versionen zu erstellen, ohne den aktuellen Status zu verlieren. Dies ist nützlich, wenn Sie aktuelle Pipelines testen oder aktualisieren, damit das System nicht gestört wird. Mit dieser Funktion können Sie auch alte Projektversionen sichern und wiederherstellen. Möglicherweise müssen Sie APIs aktivieren, um die Seite „Snapshots“ anzuzeigen. In einer kommenden Aktivität erfahren Sie mehr über APIs. 

Das Dataflow-Snapshots-Menü in einer Dataflow-Konsole

SQL-Arbeitsbereich

Im SQL-Arbeitsbereich schließlich interagieren Sie mit Ihren Dataflow-Jobs, stellen eine Verbindung zur BigQuery-Funktionalität her und schreiben notwendige SQL-Abfragen für Ihre Pipelines.

Das Dataflow SQL Workspace-Menü in einer Dataflow-Konsole

Dataflow bietet Ihnen auch die Möglichkeit, mit Ihren Datenbanken mithilfe anderer Programmiersprachen zu interagieren. Für diese Kurse werden Sie jedoch hauptsächlich SQL verwenden.

Dataflow ist eine wertvolle Möglichkeit, mit dem Aufbau von Pipelines zu beginnen und einige der Fähigkeiten zu üben, die Sie in diesem Kurs erlernt haben. Demnächst werden Sie mehr Möglichkeiten haben, mit Dataflow zu arbeiten, also ist jetzt ein guter Zeitpunkt, sich mit der Benutzeroberfläche vertraut zu machen!

Codierung mit Python

Video 53

Wenn Sie diese Kurse mit dem Google Data Analytics-Zertifikat besuchen oder mit relationalen Datenbanken gearbeitet haben, sind Sie wahrscheinlich mit der Abfragesprache SQL vertraut. Abfragesprachen sind spezielle Computerprogrammiersprachen, die zur Kommunikation mit einer Datenbank verwendet werden. Als BI-Experte wird von Ihnen möglicherweise erwartet, dass Sie auch andere Arten von Programmiersprachen verwenden. Aus diesem Grund befassen wir uns in diesem Video mit einer der beliebtesten Programmiersprachen überhaupt: Python. Eine Programmiersprache ist ein System aus Wörtern und Symbolen, mit dem Anweisungen geschrieben werden, denen Computer folgen. Es gibt viele verschiedene Programmiersprachen, aber Python wurde speziell entwickelt, um Benutzern das Schreiben von Befehlen in weniger Zeilen als die meisten anderen Sprachen zu ermöglichen. Python ist außerdem Open Source, das heißt, es ist frei verfügbar und kann von den Benutzern geändert und weitergegeben werden. Es gibt eine große Community von Python-Benutzern, die Tools und Bibliotheken entwickeln, um Python zu verbessern, was bedeutet, dass BI-Experten zahlreiche Ressourcen zur Verfügung stehen. Python ist eine universelle Programmiersprache, die in verschiedenen Kontexten angewendet werden kann. In der Business Intelligence wird es verwendet, um eine Verbindung zu einem Datenbanksystem herzustellen, um Dateien zu lesen und zu ändern. Es kann auch mit anderen Softwaretools kombiniert werden, um Pipelines zu entwickeln, und es kann sogar große Datenmengen verarbeiten und Berechnungen durchführen. Es gibt ein paar wichtige Dinge, die Sie über Python verstehen sollten, wenn Sie Ihre Programmierreise beginnen. Erstens ist es in erster Linie objektorientiert und interpretiert. Lassen Sie uns zunächst verstehen, was es bedeutet, objektorientiert zu sein. Objektorientierte Programmiersprachen basieren auf Datenobjekten. Bei diesen Objekten handelt es sich um Codeblöcke, die bestimmte Informationen erfassen. Grundsätzlich ist alles im System ein Objekt, und sobald Daten im Code erfasst wurden, werden sie vom System gekennzeichnet und definiert, sodass sie später wieder verwendet werden können, ohne dass die Daten erneut eingegeben werden müssen. Da Python von der Daten-Community weitgehend übernommen wurde, wurden viele Bibliotheken entwickelt, um Datenstrukturen und allgemeine Operationen vorzudefinieren, die Sie auf die Objekte in Ihrem System anwenden können. Dies ist äußerst nützlich, wenn Sie die Analyse wiederholen oder sogar dieselben Transformationen für mehrere Projekte verwenden müssen. Das spart Zeit, da der Code nicht von Grund auf neu eingegeben werden muss. Beachten Sie, dass sich objektorientierte Programmiersprachen von funktionalen Programmiersprachen unterscheiden, die auf Funktionen basieren. Während Python in erster Linie objektorientiert ist, kann es auch als funktionale Programmiersprache zum Erstellen und Anwenden von Funktionen verwendet werden. Einer der Gründe, warum Python so beliebt ist, ist seine Flexibilität. Aber für BI ist das wirklich Wertvolle an Python seine Fähigkeit, Datenobjekte zu erstellen und zu speichern, mit denen dann über Code interagiert werden kann. Betrachten wir nun die Tatsache, dass Python eine interpretierte Sprache ist. Interpretierte Sprachen sind Programmiersprachen, die einen Interpreter verwenden; typischerweise ein anderes Programm zum Lesen und Ausführen codierter Anweisungen. Dies unterscheidet sich von einer kompilierten Programmiersprache, die codierte Anweisungen kompiliert, die direkt vom Zielcomputer ausgeführt werden. Einer der größten Unterschiede zwischen diesen beiden Arten von Programmiersprachen besteht darin, dass der von der Maschine ausgeführte kompilierte Code für Menschen nahezu unmöglich zu lesen ist. Die interpretierte Sprache von Python ist also für BI-Experten sehr nützlich, da sie es ihnen ermöglicht, Sprache auf interaktive Weise zu verwenden. Mit Python können beispielsweise Notizbücher erstellt werden. Ein Notebook ist eine interaktive, editierbare Programmierumgebung zum Erstellen von Datenberichten. Dies kann eine großartige Möglichkeit sein, dynamische Berichte für Stakeholder zu erstellen. Python ist ein großartiges Tool für Ihre BI-Toolbox. Es gibt sogar eine Option zur Verwendung von Python-Befehlen in Google Dataflow. Schon bald können Sie es selbst ausprobieren, wenn Sie mit dem Schreiben von Python in Ihrem Dataflow-Arbeitsbereich beginnen.

Python-Anwendungen und -Ressourcen

In diesem Kurs verwenden Sie hauptsächlich BigQuery und SQL bei der Interaktion mit Datenbanken in Google DataFlow. DataFlow bietet Ihnen jedoch die Möglichkeit, mit Python zu arbeiten, einer weit verbreiteten Allzweck-Programmiersprache. Python kann ein großartiges Werkzeug für Business-Intelligence-Experten sein, daher bietet diese Lektüre Ressourcen und Informationen zum Hinzufügen von Python zu Ihrer Toolbox!

Elemente von Python

Es gibt einige Schlüsselelemente von Python, die es zu verstehen gilt:

  • Python ist Open Source und für die Öffentlichkeit frei verfügbar.

  • Es handelt sich um eine interpretierte Programmiersprache, das heißt, sie verwendet ein anderes Programm, um codierte Anweisungen zu lesen und auszuführen.

  • Daten werden in Datenrahmen gespeichert, ähnlich wie bei R.

  • In BI kann Python verwendet werden, um eine Verbindung zu einem Datenbanksystem herzustellen, um mit Dateien zu arbeiten.

  • Es ist in erster Linie objektorientiert.

  • Formeln, Funktionen und mehrere Bibliotheken sind sofort verfügbar.

  • Für die Online-Code-Unterstützung gibt es eine Entwickler-Community.

  • Python verwendet eine einfache Syntax für eine unkomplizierte Codierung.

  • Es lässt sich in Cloud-Plattformen wie Google Cloud, Amazon Web Services und Azure integrieren.

Ressourcen

Wenn Sie daran interessiert sind, Python zu lernen, stehen Ihnen zahlreiche Ressourcen zur Verfügung. Hier sind nur einige davon:

Allgemeine Tipps zum Erlernen von Programmiersprachen

Wie Sie festgestellt haben, gibt es oft übertragbare Fähigkeiten, die Sie auf viele verschiedene Tools anwenden können – und dazu gehören auch Programmiersprachen! Hier ein paar Tipps:

  • Definieren Sie ein Übungsprojekt und verwenden Sie die Sprache, um es abzuschließen. Dadurch wird der Lernprozess praktischer und ansprechender.

  • Beachten Sie frühere Konzepte und Codierungsprinzipien. Nachdem Sie eine Sprache gelernt haben, ist das Erlernen einer anderen Sprache in der Regel viel einfacher.

  • Machen Sie sich gute Notizen oder erstellen Sie Spickzettel in dem Format (handschriftlich oder getippt), das für Sie am besten geeignet ist.

  • Erstellen Sie ein Online-Ablagesystem für Informationen, auf die Sie problemlos zugreifen können, während Sie in verschiedenen Programmierumgebungen arbeiten.

Sammeln Sie Informationen von Stakeholdern

Video 54

Sie haben bereits einiges über die verschiedenen Stakeholder gelernt, mit denen ein BI-Experte in einer Organisation zusammenarbeiten kann, und darüber, wie man mit ihnen kommuniziert. Sie haben auch gelernt, dass das Sammeln von Informationen von Stakeholdern zu Beginn eines Projekts ein wesentlicher Schritt des Prozesses ist. Nachdem Sie nun mehr über Pipelines wissen, überlegen wir uns, welche Informationen Sie von Stakeholdern einholen müssen, bevor Sie BI-Prozesse für sie erstellen. So wissen Sie genau, was sie brauchen, und können dazu beitragen, ihre Arbeit so effizient wie möglich zu gestalten. Ein Teil Ihrer Arbeit als BI-Experte besteht darin, die aktuellen Prozesse zu verstehen und zu verstehen, wie Sie BI-Tools in diese bestehenden Arbeitsabläufe integrieren können. In der BI geht es oft nicht nur darum, jeden Tag einzelne Fragen zu beantworten, sondern auch herauszufinden, welche Fragen Ihr Team stellt, damit Sie ihm ein Tool entwickeln können, mit dem es diese Informationen selbst abrufen kann. Es kommt selten vor, dass Menschen genau wissen, was sie brauchen, und Ihnen dies mitteilen. Stattdessen kommen sie in der Regel mit einer Liste von Problemen oder Symptomen zu Ihnen und es liegt in Ihrer Verantwortung, herauszufinden, wie Sie ihnen helfen können. Stakeholder, die mit Daten weniger vertraut sind, wissen einfach nicht, welche BI-Prozesse möglich sind. Aus diesem Grund ist die geschäftsübergreifende Ausrichtung so wichtig. Sie möchten ein benutzerzentriertes Design erstellen, bei dem alle Anforderungen des gesamten Teams erfüllt werden, sodass Ihre Lösungen gleichzeitig auf die Bedürfnisse aller eingehen und deren Prozesse als Gruppe optimieren. Es kann schwierig sein, herauszufinden, was alle Ihre verschiedenen Stakeholder benötigen. Eine Möglichkeit besteht darin, eine Präsentation zu erstellen und eine Workshop-Sitzung mit den verschiedenen Teams zu leiten. Dies kann eine großartige Möglichkeit sein, die geschäftsübergreifende Ausrichtung zu unterstützen und die Bedürfnisse aller zu ermitteln. Es ist auch sehr hilfreich, einige Zeit damit zu verbringen, Ihre Stakeholder bei der Arbeit zu beobachten und ihnen Fragen zu stellen, was sie tun und warum. Darüber hinaus ist es wichtig, die Metriken und die Daten, die die Zieltabelle enthalten soll, frühzeitig mit teamübergreifenden Stakeholdern festzulegen. Dies sollte erfolgen, bevor Sie mit der Erstellung der Tools beginnen. Wie Sie erfahren haben, ist eine Metrik ein einzelner quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird. In der BI sind die Kennzahlen, an denen Unternehmen normalerweise interessiert sind, KPIs, die ihnen dabei helfen zu beurteilen, wie erfolgreich sie bestimmte Ziele erreichen. Das Verständnis dieser Ziele und ihrer Messbarkeit ist ein wichtiger erster Schritt beim Aufbau eines BI-Tools. Sie wissen auch, dass Zieltabellen das endgültige Ziel sind, an dem Daten verarbeitet werden. Wenn Sie die Endziele verstehen, können Sie den besten Prozess entwerfen. Es ist wichtig zu bedenken, dass der Aufbau von BI-Prozessen ein kollaborativer und iterativer Prozess ist. Sie werden weiterhin Informationen von Ihren Stakeholdern sammeln und das Gelernte nutzen, bis Sie ein System erstellt haben, das für Ihr Team funktioniert, und selbst dann können Sie es ändern, wenn neue Anforderungen entstehen. Oftmals haben Ihre Stakeholder ihre Fragen identifiziert, aber möglicherweise noch nicht ihre Annahmen oder Vorurteile gegenüber dem Projekt. Hier kann ein BI-Experte Einblicke geben. Durch die enge Zusammenarbeit mit den Stakeholdern stellen Sie sicher, dass Sie deren Bedürfnisse bei der Entwicklung der BI-Tools berücksichtigen, die ihre Prozesse rationalisieren. Wenn Sie ihre Ziele, Kennzahlen und endgültigen Zieltabellen verstehen und über mehrere Teams hinweg kommunizieren, stellen Sie sicher, dass Sie Systeme entwickeln, die für alle funktionieren.

Führen Sie Daten aus mehreren Quellen mit BigQuery zusammen

Zuvor haben Sie damit begonnen, Google Dataflow zu erkunden, ein Tool der Google Cloud Platform (GCP), das Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt. In dieser Lektion beginnen Sie mit der Arbeit mit einem anderen GCP-Datenverarbeitungstool: BigQuery. Wie Sie sich vielleicht aus dem Google Data Analytics-Zertifikat erinnern, ist BigQuery ein Data Warehouse, das zum Abfragen und Filtern großer Datensätze, zum Aggregieren von Ergebnissen und zum Durchführen komplexer Vorgänge verwendet wird.

Als Business Intelligence (BI)-Experte müssen Sie Daten von Stakeholdern in mehreren Teams sammeln und organisieren. Mit BigQuery können Sie Daten aus mehreren Quellen in einer Zieltabelle zusammenführen. Die Zieltabelle kann dann in ein Dashboard umgewandelt werden, das es den Beteiligten erleichtert, die Daten zu verstehen und zu analysieren. In dieser Lektüre sehen Sie sich ein Szenario an, in dem ein BI-Experte BigQuery verwendet, um Daten von mehreren Beteiligten zusammenzuführen, um wichtige Geschäftsfragen zu beantworten.

Das Problem 

Stellen Sie sich ein Szenario vor, in dem die BI-Expertin Aviva für eine fiktive Coffeeshop-Kette arbeitet. Jedes Jahr bieten die Cafés eine Vielzahl saisonaler Menüpunkte an. Unternehmensleiter sind daran interessiert, die beliebtesten und profitabelsten Artikel auf ihren saisonalen Menüs zu ermitteln, damit sie sicherere Entscheidungen über die Preisgestaltung treffen können. strategische Förderung; und Beibehaltung, Erweiterung oder Einstellung von Menüpunkten.

Die Lösung

Datenextraktion

Um die Informationen zu erhalten, an denen die Stakeholder interessiert sind, beginnt Aviva mit der Extraktion der Daten. Der Datenextraktionsprozess umfasst das Auffinden und Identifizieren relevanter Daten sowie deren anschließende Vorbereitung für die Transformation und das Laden. Um die notwendigen Daten zu identifizieren, implementiert Aviva die folgenden Strategien:

Treffen Sie sich mit wichtigen Stakeholdern

Aviva leitet einen Workshop mit Stakeholdern, um deren Ziele zu ermitteln. Während dieses Workshops stellt sie Stakeholdern Fragen, um mehr über ihre Bedürfnisse zu erfahren:

  • Welche Informationen müssen aus den Daten gewonnen werden (z. B. Leistung verschiedener Menüpunkte an verschiedenen Restaurantstandorten)?

  • Welche spezifischen Kennzahlen sollten gemessen werden (Verkaufskennzahlen, Marketingkennzahlen, Produktleistungskennzahlen)?

  • Welche Datenquellen sollen genutzt werden (Verkaufszahlen, Kundenfeedback, Point of Sales)?

  • Wer benötigt Zugriff auf diese Daten (Management, Marktanalysten)?

  • Wie werden wichtige Stakeholder diese Daten nutzen (z. B. um zu bestimmen, welche Artikel in künftige Menüs aufgenommen werden sollen, oder um Preisentscheidungen zu treffen)?

Beobachten Sie Teams in Aktion

Aviva verbringt auch Zeit damit, die Stakeholder bei der Arbeit zu beobachten und ihnen Fragen darüber zu stellen, was sie tun und warum. Dies hilft ihr, die Ziele des Projekts mit den größeren Initiativen der Organisation zu verbinden. Bei diesen Beobachtungen stellt sie Fragen dazu, warum bestimmte Informationen und Aktivitäten für die Organisation wichtig sind.

Daten in BigQuery organisieren

Sobald Aviva den Datenextraktionsprozess abgeschlossen hat, wandelt sie die von verschiedenen Interessengruppen gesammelten Daten um und lädt sie in BigQuery. Anschließend entwirft sie mithilfe von BigQuery eine Zieltabelle zum Organisieren der Daten. Die Zieltabelle hilft Aviva, die Daten zu vereinheitlichen. Anschließend entwickelt sie anhand der Zieltabelle ein endgültiges Dashboard, das die Stakeholder überprüfen können. 

Die Ergebnisse

Wenn Stakeholder das Dashboard überprüfen, können sie mehrere wichtige Erkenntnisse über die Beliebtheit und Rentabilität von Artikeln auf ihren saisonalen Menüs ermitteln. Die Daten zeigen beispielsweise, dass viele Produkte auf Pfefferminzbasis auf ihren Speisekarten in den letzten Jahren an Beliebtheit verloren haben, während Produkte auf Zimtbasis an Beliebtheit zugenommen haben. Diese Erkenntnis veranlasst die Beteiligten dazu, drei ihrer Getränke und Backwaren auf Pfefferminzbasis aus dem Verkehr zu ziehen. Sie beschließen außerdem, eine Auswahl neuer Angebote auf Zimtbasis hinzuzufügen und eine Kampagne zur Werbung für diese Artikel zu starten. 

Wichtigste Erkenntnisse

Durch die Organisation von Daten aus mehreren Quellen in einem Tool wie BigQuery können BI-Experten Antworten auf geschäftliche Fragen finden. Die Konsolidierung der Daten in einer Zieltabelle erleichtert auch die Entwicklung eines Dashboards zur Überprüfung durch die Beteiligten. Wenn Stakeholder auf die Daten zugreifen und diese verstehen können, können sie fundiertere Entscheidungen darüber treffen, wie sie Dienstleistungen oder Produkte verbessern und neue Möglichkeiten nutzen können. 

Daten mit Zieltabellen vereinheitlichen

Wie Sie bereits erfahren haben, sind Zieltabellen vorgegebene Speicherorte, an die Pipeline-Daten gesendet werden, damit sie in einem Datenbanksystem verarbeitet werden können. Im Wesentlichen ist eine Quelltabelle der Ursprungsort der Daten und eine Zieltabelle der Ort, an den sie weitergeleitet werden. Diese Lektüre bietet weitere Informationen über den Datenextraktionsprozess und wie Zieltabellen in die größere Logik von Business-Intelligence-Prozessen passen.

Datenextraktion

Bei der Datenextraktion werden Daten aus einem Quellsystem, beispielsweise einer Datenbank oder einem SaaS, entnommen, damit sie zur Analyse an ein Zielsystem übermittelt werden können. Sie erkennen dies möglicherweise als den ersten Schritt in einer ETL-Pipeline (Extrahieren, Transformieren und Laden). Es gibt drei Hauptmethoden, mit denen Pipelines Daten aus einer Quelle extrahieren können, um sie an eine Zieltabelle zu liefern:

  • Update-Benachrichtigung: Das Quellsystem gibt eine Benachrichtigung aus, wenn ein Datensatz aktualisiert wurde, was die Extraktion auslöst.

  • Inkrementelle Extraktion: Das BI-System sucht nach Daten, die sich an der Quelle geändert haben, und nimmt diese Aktualisierungen auf.

  • Vollständige Extraktion: Das BI-System extrahiert eine ganze Tabelle in das Zieldatenbanksystem.

Sobald die Daten extrahiert wurden, müssen sie zur Verwendung in Zieltabellen geladen werden. Um intelligente Geschäftsentscheidungen voranzutreiben, benötigen Benutzer Zugriff auf aktuelle, saubere und nutzbare Daten. Aus diesem Grund ist es für BI-Experten wichtig, Zieltabellen zu entwerfen, die alle zur Beantwortung geschäftlicher Fragen erforderlichen Informationen enthalten können.

Die Bedeutung von Zieltabellen

Als BI-Experte möchten Sie Zieltabellen nutzen, um Ihre Daten zu vereinheitlichen und sie den Benutzern zugänglich zu machen. Um Erkenntnisse aus einer Vielzahl unterschiedlicher Quellen zu gewinnen, ist es wichtig, einen Ort zu haben, der alle Daten aus diesen Quellen enthält.

Fallstudie: Wayfair – Zusammenarbeit mit Stakeholdern zur Erstellung einer Pipeline

Die Zusammenarbeit mit Stakeholdern beim Entwerfen und Iterieren eines Pipeline-Systems ist eine wichtige Strategie, um sicherzustellen, dass die von Ihnen eingerichteten BI-Systeme ihren Geschäftsanforderungen entsprechen. In dieser Fallstudie erfahren Sie, wie das BI-Team eines E-Commerce-Einzelhändlers arbeitetWayfairmit Hauptsitz in Boston, Massachusetts, arbeitet während eines Projekts mit seinen Stakeholdern zusammen, um ein Pipelinesystem zu schaffen, das für sie funktioniert.

Wayfair-Logo

Firmenhintergrund

Die langjährigen Freunde Niraj Shah und Steve Conine gründeten das reine Online-Unternehmen im Jahr 2002, nachdem sie beschlossen hatten, ihren Kunden eine größere Auswahl an Auswahlmöglichkeiten bieten zu wollen – mehr, als in einen stationären Raum passen würde. Sie gründeten das Unternehmen als eine Ansammlung von mehr als 200 E-Commerce-Shops, die jeweils unterschiedliche Produktkategorien verkauften. Im Jahr 2011 führte das Unternehmen diese Websites zusammen, um wayfair.com zu gründen.

Wayfair-Gründer Niraj Shah und Steve Connie

Wayfair ist heute einer der weltweit größten Einzelhändler für Wohnimmobilien. Das Ziel des Unternehmens ist es, allen Menschen überall dabei zu helfen, ihr Heimatgefühl zu schaffen. Es ermöglicht Kunden, Räume zu schaffen, die widerspiegeln, wer sie sind, was sie brauchen und was sie wertschätzen.

 

Wayfair.com-Homepage

Die Herausforderung

Das Wayfair-Preis-Ökosystem umfasst Tausende verschiedener Ein- und Ausgaben für einen vollständigen Produktkatalog, die sich mehrmals täglich ändern. Alle diese Ein- und Ausgänge werden auf unterschiedliche Weise aus unterschiedlichen Quellen generiert. Aus diesem Grund hatten das BI-Team und andere Datenexperten, die auf Preisdaten zugreifen mussten, Schwierigkeiten, den gesamten Datensatz zu finden, abzufragen und zu interpretieren. Dies führte zu unvollständigen und oft ungenauen Erkenntnissen, die für Entscheidungsträger nicht nützlich waren. 

Um dieses Problem anzugehen, beschloss das BI-Team, ein neues Pipeline-System zu entwerfen und zu implementieren, um alle benötigten Datenbeteiligten zu konsolidieren. Außerdem mussten sie einige zusätzliche Herausforderungen bei ihrem Pipelinesystem berücksichtigen:

  • Überwachung und Berichterstattung rund um diese Prozesse müssten in den Entwurf einbezogen werden, um Fehler zu verfolgen und zu verwalten.

  • Die Daten müssten sauber sein, bevor sie mit nachgeschalteten Benutzern geteilt werden könnten. 

  • Aufgrund der Vielzahl der zusammenzuführenden Datentypen musste das BI-Team auch die Datenbeziehungen besser verstehen, damit es die Daten genau konsolidieren konnte. 

  • Es wären Schulungen erforderlich, um den Benutzern beizubringen, wie sie am besten auf die neuen Datensätze zugreifen und diese nutzen können. 

Aufgrund dieser einzigartigen Herausforderungen war es für das BI-Team besonders wichtig, bei der Entwicklung des neuen Systems eng mit den Stakeholdern zusammenzuarbeiten, um deren Anforderungen zu erfüllen und etwas zu schaffen, das über mehrere Teams hinweg funktioniert. 

Die Vorgehensweise 

Angesichts der riesigen Datenmenge im System war es für das BI-Team wichtig, einen Schritt zurückzutreten und mit den Stakeholdern zusammenzuarbeiten, um wirklich zu verstehen, wie sie die Daten derzeit nutzen. Dazu gehörte das Verständnis der Geschäftsprobleme, die sie zu lösen versuchten, der Daten, die sie bereits verwendeten und wie sie darauf zugegriffen haben, sowie der Daten, die sie verwenden wollten, auf die sie aber noch nicht zugreifen konnten. 

Nach der Kommunikation mit den Stakeholdern konnte das Team eine Pipeline entwerfen, mit der drei Hauptziele erreicht wurden:

  • Alle erforderlichen Daten könnten verfügbar und leicht verständlich und nutzbar gemacht werden

  • Das System war effizienter und konnte Daten ohne Verzögerungen zur Verfügung stellen

  • Das System wurde so konzipiert, dass es mit der vertikalen und horizontalen Erweiterung des Datensatzes skaliert werden kann, um zukünftiges Wachstum zu unterstützen

Nachdem dieser erste Entwurf fertiggestellt war, wurde das System den Stakeholdern zur Überprüfung vorgelegt, um sicherzustellen, dass sie das System verstanden und alle ihre Anforderungen erfüllten. Dieses Projekt erforderte die Zusammenarbeit verschiedener Interessengruppen und Teams:

  • Software-Ingenieure : Das Team der Software-Ingenieure war der Haupteigentümer und Erzeuger der Daten. Daher waren sie von entscheidender Bedeutung für das Verständnis des aktuellen Zustands der Daten und halfen dabei, diese für das BI-Team zugänglich zu machen, damit sie damit arbeiten konnten.

  • Datenarchitekten : Das BI-Team hat sich mit Datenarchitekten beraten, um sicherzustellen, dass das Pipeline-Design allumfassend, effizient und skalierbar ist, damit das BI-Team die vom System erfasste Datenmenge bewältigen und sicherstellen kann, dass nachgeschaltete Benutzer Zugriff darauf haben Daten, während das System skaliert wurde. 

  • Datenexperten: Als Hauptbenutzer stellten diese Teams die Anwendungsfälle und Anforderungen für das System bereit, damit das BI-Team sicherstellen konnte, dass die Pipeline ihren Anforderungen entsprach. Da die Anforderungen der jeweiligen Teams unterschiedlich waren, war es wichtig sicherzustellen, dass das Systemdesign und die enthaltenen Daten umfassend genug waren, um alle diese Anforderungen zu berücksichtigen. 

  • Geschäftsinteressenvertreter: Als Endnutzer der durch die gesamte Pipeline generierten Erkenntnisse stellten die Geschäftsinteressenvertreter sicher, dass alle Entwicklungsarbeiten und Anwendungsfälle auf klaren Geschäftsproblemen beruhten, um sicherzustellen, dass das, was das BI-Team erstellt hatte, sofort auf ihre Arbeit angewendet werden konnte. 

Die Kommunikation mit allen Beteiligten während des gesamten Designprozesses stellte sicher, dass das Wayfair BI-Team etwas Nützliches und Langlebiges für sein Unternehmen geschaffen hat.

Die Ergebnisse

Die endgültige Pipeline, die das BI-Team implementierte, erreichte eine Reihe wichtiger Ziele für die gesamte Organisation:

  • Es ermöglichte Softwareentwicklungsteams, Daten in Echtzeit zu veröffentlichen, damit das BI-Team sie nutzen kann.

  • Die verschiedenen Datenkomponenten wurden in einem einheitlichen Datensatz zusammengefasst, um den Zugriff und die Verwendung zu erleichtern.

  • Dadurch konnte das BI-Team verschiedene Datenkomponenten in ihren eigenen Staging-Ebenen speichern.

  • Es umfasste zusätzliche Prozesse zur Überwachung und Berichterstattung über die Systemleistung, um Benutzer über aufgetretene Fehler zu informieren und schnelle Lösungen zu ermöglichen.

  • Es wurde ein einheitlicher Datensatz erstellt, den Benutzer nutzen konnten, um Metriken zu erstellen und Datenberichte zu erstellen.

Der größte Vorteil dieser Pipeline-Lösung bestand darin, dass Wayfair nun in der Lage war, den Benutzern präzise Informationen an einem Ort bereitzustellen, wodurch die Notwendigkeit entfiel, selbst verschiedene Quellen zusammenzuführen. Dies bedeutete, dass das Team den Stakeholdern genauere Erkenntnisse liefern und kostspielige Ad-hoc-Prozesse vermeiden konnte. 

Die Resonanz war teamübergreifend sehr positiv. Der Analytics-Direktor bei Wayfair sagte, dass dies für die tägliche Arbeit seines Teams revolutionär sei, da es zum ersten Mal Informationen zu Einzelhandelspreisen, Kosteneingaben und Produktstatus an derselben Stelle habe. Dies war ein großer Vorteil für ihre Prozesse und half ihnen, ihre Daten intelligenter zu verwalten.

Abschluss

Ein wesentlicher Vorteil, den Business Intelligence einem Unternehmen bietet, besteht darin, dass es die Systeme und Prozesse für Benutzer im gesamten Unternehmen effizienter und effektiver macht. Grundsätzlich erleichtert BI die Arbeit aller ein wenig. Für den Erfolg ist es von entscheidender Bedeutung, dass das BI-Team eng mit den Geschäftsinteressenten und anderen Teams zusammenarbeitet. Ohne gute Partnerschaft können Probleme nicht richtig gelöst werden.

Einpacken

Video 55

Hey, tolle Arbeit bisher. Sie sind mit dem ersten Abschnitt dieses Kurses fast fertig. Du hast viel gelernt. Bisher haben wir die Rolle eines BI-Experten bei der Organisation und Speicherung von Daten besprochen. Sie haben außerdem Datenmodelle und Schemata untersucht, wie BI-Experten Entwurfsmuster basierend auf den Anforderungen des Unternehmens entwickeln und wie Datenbanken entworfen werden. Sie wurden mit Datenpipelines, ETL-Prozessen und dem Erstellen von BI-Tools vertraut gemacht, die dabei helfen, die Übertragung von Daten von Speichersystemen an Zielziele zu automatisieren. Sie haben sogar begonnen, Tools zu verwenden, um mit dem Aufbau Ihrer eigenen Pipelines zu beginnen. Schließlich haben Sie Strategien zum Sammeln von Informationen von Stakeholdern kennengelernt, um sicherzustellen, dass die Tools, die Sie für sie erstellen, tatsächlich die Geschäftsprobleme lösen. Aber die Erstellung von Systemen, die Daten verwalten und verschieben, ist nur ein Teil der Arbeit eines BI-Experten. Sie müssen auch sicherstellen, dass diese Systeme für Ihre Stakeholder weiterhin funktionieren. Als Nächstes erfahren Sie, wie Sie Ihre BI-Tools und optimierten Datenbanksysteme pflegen. Ich hoffe, Sie sind gespannt darauf, mehr zu erfahren, denn es gibt noch viel mehr, was ich mit Ihnen teilen möchte. Doch zunächst steht Ihnen eine weitere Herausforderung bevor. Verbringen Sie ruhig etwas Zeit mit dem Glossar und überprüfen Sie den Inhalt des Abschnitts, bevor Sie mit Ihrer nächsten Bewertung fortfahren. Dann bin ich für Sie da, wenn Sie bereit sind, den nächsten Schritt zu tun.

Glossarbegriffe aus Modul 1

Attribut: In einem dimensionalen Modell ein Merkmal oder eine Qualität, die zur Beschreibung einer Dimension verwendet wird

Spaltendatenbank: Eine Datenbank, die nach Spalten statt nach Zeilen organisiert ist

Kombinierte Systeme: Datenbanksysteme, die Daten am selben Ort speichern und analysieren

Kompilierte Programmiersprache: Eine Programmiersprache, die codierte Anweisungen kompiliert, die direkt vom Zielcomputer ausgeführt werden

Data Lake: Ein Datenbanksystem, das große Mengen an Rohdaten im Originalformat speichert, bis sie benötigt werden

Data Mart: Eine themenorientierte Datenbank, die eine Teilmenge eines größeren Data Warehouse sein kann

Data Warehouse: Ein spezifischer Datenbanktyp, der Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten

Datenbankmigration: Verschieben von Daten von einer Quellplattform in eine andere Zieldatenbank

Dimension (Datenmodellierung): Eine Information, die mehr Details und Kontext zu einer Tatsache liefert

Dimensionstabelle: Die Tabelle, in der die Attribute der Dimensionen eines Fakts gespeichert werden

Entwurfsmuster: Eine Lösung, die relevante Kennzahlen und Fakten verwendet, um ein Modell zur Unterstützung der Geschäftsanforderungen zu erstellen

Dimensionsmodell: Eine Art relationales Modell, das für den schnellen Abruf von Daten aus einem Data Warehouse optimiert wurde

Verteilte Datenbank: Eine Sammlung von Datensystemen, die über mehrere physische Standorte verteilt sind

Fakt: In einem dimensionalen Modell eine Messung oder Metrik

Faktentabelle: Eine Tabelle, die Messungen oder Metriken im Zusammenhang mit einem bestimmten Ereignis enthält

Fremdschlüssel: Ein Feld innerhalb einer Datenbanktabelle, das ein Primärschlüssel in einer anderen Tabelle ist (siehe Primärschlüssel)

Funktionale Programmiersprache: Eine Programmiersprache, die auf Funktionen basiert

Google DataFlow: Ein serverloser Datenverarbeitungsdienst, der Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt

Interpretierte Programmiersprache: Eine Programmiersprache, die einen Interpreter, normalerweise ein anderes Programm, verwendet, um codierte Anweisungen zu lesen und auszuführen

Logische Datenmodellierung: Darstellung verschiedener Tabellen im physischen Datenmodell

Objektorientierte Programmiersprache: Eine Programmiersprache, die auf Datenobjekten basiert

OLAP-System (Online Analytical Processing): Ein Tool, das neben der Verarbeitung auch für die Analyse optimiert wurde und Daten aus mehreren Datenbanken analysieren kann

OLTP-Datenbank (Online Transaction Processing): Ein Datenbanktyp, der für die Datenverarbeitung statt für die Analyse optimiert wurde

Primärschlüssel: Ein Bezeichner in einer Datenbank, der auf eine Spalte oder eine Gruppe von Spalten verweist, in der jede Zeile jeden Datensatz in der Tabelle eindeutig identifiziert (siehe Fremdschlüssel).

Python: Eine universelle Programmiersprache

Antwortzeit: Die Zeit, die eine Datenbank benötigt, um eine Benutzeranfrage abzuschließen

Zeilenbasierte Datenbank: Eine Datenbank, die nach Zeilen organisiert ist

Getrennte Speicher- und Computersysteme: Datenbanken, in denen Daten remote gespeichert werden und relevante Daten lokal zur Analyse gespeichert werden

Single-Homed-Datenbank: Datenbank, in der alle Daten am selben physischen Ort gespeichert sind

Schneeflockenschema: Eine Erweiterung eines Sternschemas mit zusätzlichen Dimensionen und häufig auch Unterdimensionen

Sternschema: Ein Schema, das aus einer Faktentabelle besteht, die auf eine beliebige Anzahl von Dimensionstabellen verweist

Zieltabelle: Der vorgegebene Ort, an den Pipeline-Daten gesendet werden, damit darauf reagiert werden kann

 

Begriffe und Definitionen aus früheren Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholdern die Möglichkeit zu geben, wirkungsvolle Geschäftsentscheidungen zu treffen

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Datenverfügbarkeit: Der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

UND

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

Erfahrungsbasiertes Lernen: Verstehen durch Handeln

ICH

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

M

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

S

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

T

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

Übertragbare Fähigkeit: Eine Fähigkeit oder Kompetenz, die von einem Job auf einen anderen übertragen werden kann

IN

Vanity-Metrik: Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats zu Datentypen

Video 56

Ich weiß nicht, wie es Ihnen geht, aber wenn ich einen Film zum Anschauen auswähle, stehe ich manchmal zwischen mehreren Möglichkeiten fest. Wenn ich Lust auf Spannung oder Spannung habe, greife ich vielleicht zu einem Thriller, aber wenn ich einen guten Lacher brauche, wähle ich eine Komödie. Wenn ich mich wirklich nicht zwischen zwei Filmen entscheiden kann, nutze ich möglicherweise sogar einige meiner Datenanalysefähigkeiten, um sie zu vergleichen und gegenüberzustellen. Wenn ich darüber nachdenke, muss es wirklich mehr Filme über Datenanalysten geben, das würde ich mir ansehen. Aber da wir uns keinen Film über Daten ansehen können, zumindest noch nicht, machen wir das Nächstbeste: Schauen wir uns Filme über Daten an. Wir werden uns diese Tabelle mit Filmdaten ansehen. Wir wissen, dass wir verschiedene Filme und Filmgenres vergleichen können. Es stellt sich heraus, dass Sie dasselbe mit Daten und Datenformaten tun können. Lassen Sie uns unsere Filmdatentabelle verwenden, um zu verstehen, wie das funktioniert. Wir beginnen mit quantitativen und qualitativen Daten. Wenn wir uns Spalte A ansehen, finden wir die Titel der Filme. Hierbei handelt es sich um qualitative Daten, da sie nicht gezählt, gemessen oder einfach mit Zahlen ausgedrückt werden können. Qualitative Daten werden normalerweise als Name, Kategorie oder Beschreibung aufgeführt. In unserer Tabelle die Filmtitel und Darsteller oder qualitative Daten. Als nächstes kommen quantitative Daten, die gemessen oder gezählt und dann als Zahl ausgedrückt werden können. Dabei handelt es sich um Daten mit einer bestimmten Menge, Menge oder Reichweite. In unserer Tabelle hier zeigen die letzten beiden Spalten das Budget und die Einnahmen an den Kinokassen des Films. Die Daten in diesen Spalten sind in Dollar aufgeführt und können gezählt werden. Wir wissen also, dass die Daten quantitativ sind. Wir können noch tiefer in quantitative Daten eintauchen und sie in diskrete oder kontinuierliche Daten aufschlüsseln. Schauen wir uns zunächst die diskreten Daten an. Hierbei handelt es sich um gezählte Daten mit einer begrenzten Anzahl von Werten. Wenn wir zu unserer Tabelle zurückkehren, finden wir in den Spalten M und N das Budget und die Einspielergebnisse jedes Films. Dies sind beides Beispiele für diskrete Daten, sie können gezählt werden und haben eine begrenzte Anzahl von Werten. Zum Beispiel kann der Geldbetrag, den ein Film einbringt, nur mit genau zwei Nachkommastellen dargestellt werden, um Sinn zu machen, es kann alles zwischen einem und zwei Cent sein. Kontinuierliche Daten können mit einem Timer gemessen und ihr Wert als Dezimalzahl mit mehreren Stellen angezeigt werden. Stellen wir uns einen Film über Datenanalysten vor, in dem ich definitiv eines Tages mitspielen werde. Die Laufzeit dieses Films könnte man mit 110,0356 Minuten angeben. Bei Bedarf können Sie nach dem Dezimalpunkt sogar Bruchzahlen hinzufügen. Es gibt auch nominale und ordinale Daten. Nominale Daten sind qualitative Daten, die ohne festgelegte Reihenfolge kategorisiert werden. Mit anderen Worten: Diese Daten haben keine Reihenfolge. Hier ist ein kurzes Beispiel: Nehmen wir an, Sie sammeln Daten über Filme und fragen die Leute, ob sie einen bestimmten Film gesehen haben. Ihre Antworten würden in Form von Nominaldaten erfolgen. Sie konnten mit „Ja“, „Nein“ oder „Nicht sicher“ antworten. Diese Auswahlmöglichkeiten haben keine bestimmte Reihenfolge. Ordinaldaten hingegen sind qualitative Daten mit einer festgelegten Reihenfolge oder Skala. Wenn Sie eine Gruppe von Leuten bitten würden, einen Film auf einer Skala von 1 bis 5 zu bewerten, könnten einige ihn mit zwei, andere mit vier usw. bewerten. Diese Ranglisten sind danach geordnet, wie gut den einzelnen Personen der Film gefallen hat. Lassen Sie uns über interne Daten sprechen, also Daten, die in den eigenen Systemen eines Unternehmens gespeichert sind. Wenn beispielsweise ein Filmstudio alle Daten in der Tabelle nur mit seinen eigenen Erfassungsmethoden zusammengestellt hätte, wären es seine internen Daten. Das Tolle an internen Daten ist, dass sie in der Regel zuverlässiger und einfacher zu erfassen sind. In der Tabelle ist es jedoch wahrscheinlicher, dass das Filmstudio Daten verwenden musste, die anderen Studios und Quellen gehören oder von ihnen geteilt wurden, da sie Filme enthalten, die sie nicht gemacht haben. Das bedeutet, dass sie externe Daten sammeln würden. Externe Daten sind, wie Sie es erraten haben, Daten, die außerhalb einer Organisation leben und generiert werden. Externe Daten werden besonders wertvoll, wenn Ihre Analyse auf möglichst vielen Quellen basiert. Das Tolle an diesen Daten ist, dass sie strukturiert sind. Strukturierte Daten sind Daten, die in einem bestimmten Format organisiert sind, beispielsweise Zeilen und Spalten. Tabellenkalkulationen und relationale Datenbanken sind zwei Beispiele für Software, die Daten strukturiert speichern kann. Sie erinnern sich vielleicht an unsere frühere Untersuchung des strukturierten Denkens, die Ihnen hilft, einem Problem einen Rahmen zu geben, damit Sie es auf organisierte und logische Weise lösen können. Sie können strukturierte Daten auf die gleiche Weise betrachten. Ein Framework für die Daten macht die Daten leichter durchsuchbar und analysebereiter. Als Datenanalyst arbeiten Sie mit vielen strukturierten Daten, die normalerweise in Form einer Tabellenkalkulation oder einer relationalen Datenbank vorliegen. Aber manchmal stößt man auf unstrukturierte Daten. Hierbei handelt es sich um Daten, die nicht in einer leicht identifizierbaren Weise organisiert sind. Audio- und Videodateien sind Beispiele für unstrukturierte Daten, da es keine eindeutige Möglichkeit gibt, ihren Inhalt zu identifizieren oder zu organisieren. Unstrukturierte Daten haben möglicherweise eine interne Struktur, aber die Daten passen nicht genau wie strukturierte Daten in Zeilen und Spalten. Da hast du

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats zu Primär- und Fremdschlüsseln

Video 57

Datenbanken sind unverzichtbare Werkzeuge für Datenanalysten. Ich benutze sie ständig. Nahezu alle Daten, auf die ich zugreife, werden in Datenbanken gespeichert. Datenbanken speichern und organisieren Daten und erleichtern so Datenanalysten die Verwaltung und den Zugriff auf Informationen erheblich. Sie helfen uns, schneller Erkenntnisse zu gewinnen, datengesteuerte Entscheidungen zu treffen und Probleme zu lösen. Sie haben bereits etwas darüber gehört, was Datenbanken sind und wie sie von Datenanalysten verwendet werden. Lassen Sie uns nun mehr über Datenbankfunktionen und -komponenten erfahren. Hier ist eine einfache Datenbankstruktur. Es enthält Tabellen mit Informationen eines Automobilherstellers. Die oberste Ebene umfasst Autohäuser, Produktdetails und Ersatzteile. Wenn Sie dann einen Drilldown zur nächsten Ebene durchführen, indem Sie eine dieser Tabellen auswählen, finden Sie spezifischere Details zu jedem Element. Dies wird als relationale Datenbank bezeichnet. Eine relationale Datenbank ist eine Datenbank, die eine Reihe zusammengehöriger Tabellen enthält, die über ihre Beziehungen verbunden werden können. Damit zwei Tabellen eine Beziehung haben, müssen in beiden Tabellen ein oder mehrere gleiche Felder vorhanden sein. Hier ist beispielsweise die Filial-ID in dieser und dieser Tabelle vorhanden. Wenn in beiden Tabellen ein Feld vorhanden ist, können wir es verwenden, um die Tabellen miteinander zu verbinden. Das Filial-ID-Feld ist der Schlüssel zum Verbinden dieser Tabellen. Es gibt zwei Arten von Schlüsseln. Ein Primärschlüssel ist ein Bezeichner, der auf eine Spalte verweist, in der jeder Wert eindeutig ist. Sie können es sich als eindeutige Kennung für jede Zeile in einer Tabelle vorstellen. Für unsere Händlertabelle mit Informationen zu den verschiedenen Händlerfilialen ist die Filial-ID der Primärschlüssel. Ebenso ist für die Produktdetailtabelle zu jedem Auto die VIN unser Primärschlüssel. Als Analyst müssen Sie möglicherweise Tabellen erstellen. Wenn Sie sich für die Einbeziehung eines Primärschlüssels entscheiden, sollte dieser eindeutig sein, d. h. keine zwei Zeilen dürfen denselben Primärschlüssel haben. Außerdem darf es weder null noch leer sein. Es gibt auch Fremdschlüssel. Ein Fremdschlüssel ist ein Feld innerhalb einer Tabelle, das ein Primärschlüssel in einer anderen Tabelle ist. Mit anderen Worten, ein Fremdschlüssel ist die Art und Weise, wie eine Tabelle mit einer anderen verbunden werden kann. Da die Reparaturteiletabelle Informationen zu jedem Autoteil enthält, ist der Primärschlüssel die Teile-ID. Jede Zeile in unserer Ersatzteiltabelle stellt ein einzelnes Teil dar. Alle anderen Schlüssel in dieser Tabelle, wie zum Beispiel die VIN, sind die Fremdschlüssel, die es ermöglichen, die Ersatzteiltabelle mit den anderen Tabellen zu verbinden. Wie Sie sehen, kann eine Tabelle nur einen Primärschlüssel, aber mehrere Fremdschlüssel haben. Das Verstehen von Primär- und Fremdschlüsseln kann schwierig sein, daher haben Sie mehr Möglichkeiten, das Auftauchen zu üben. Als allgemeine Zusammenfassung wird jedoch ein Primärschlüssel verwendet, um sicherzustellen, dass die Daten in einer bestimmten Spalte eindeutig sind. Es identifiziert einen Datensatz in einer relationalen Datenbanktabelle eindeutig. In einer Tabelle ist nur ein Primärschlüssel zulässig und sie dürfen keine Null- oder Leerwerte enthalten. Und ein Fremdschlüssel ist eine Spalte oder Spaltengruppe in einer relationalen Datenbanktabelle, die eine Verknüpfung zwischen den Daten in zwei Tabellen herstellt. Es bezieht sich auf das Feld in einer Tabelle, das der Primärschlüssel einer anderen Tabelle ist. Abschließend ist es wichtig zu beachten, dass in einer Tabelle mehr als ein Fremdschlüssel vorhanden sein darf. Schauen Sie sich dieses Video gerne noch einmal an, um sicherzustellen, dass Sie Primär- und Fremdschlüssel klar verstehen. Als Nächstes üben Sie, wie Sie auf Daten aus tatsächlichen Datenbanken zugreifen und diese analysieren. Dies ist eine großartige Gelegenheit, Ihr Verständnis von Primär- und Fremdschlüsseln, der Datenbankorganisation und der möglichen Verwendung von Datenbanken in Ihrer zukünftigen Karriere als Analytiker zu verbessern.

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats zu BigQuery

Video 58

Hallo. In diesem Video lernen wir jeden Teil des BigQuery-SQL-Arbeitsbereichs kennen, damit Sie ihn während dieses Kurses und während Ihrer gesamten Karriere als Datenanalyst verwenden können. Da es sich um ein äußerst wertvolles und weithin beliebtes Tool handelt, ist es äußerst hilfreich, zu verstehen, wie es funktioniert. Verfolgen Sie gerne auf Ihrem Bildschirm, wie wir BigQuery erkunden. Möglicherweise stellen Sie fest, dass mein Bildschirm etwas anders aussieht als Ihrer, da BigQuery seine Benutzeroberfläche ständig aktualisiert. Machen Sie sich in diesem Fall keine Sorgen, denn geringfügige Unterschiede werden Sie nicht davon abhalten, die Grundlagen zu verstehen. Gehen Sie zunächst zur BigQuery-Landingpage und melden Sie sich dann bei dem Konto an, das Sie zuvor erstellt haben. Um zum SQL-Arbeitsbereich zu navigieren, wählen Sie das Menü auf der linken Seite des Bildschirms aus und scrollen Sie nach unten zur Überschrift „Big Data“. Bewegen Sie dann den Mauszeiger über das BigQuery-Label und klicken Sie im Dropdown-Menü auf „SQL-Arbeitsbereich“. Da wir uns nun im SQL-Arbeitsbereich befinden, werden wir nach öffentlichen Datensätzen suchen, einen Datensatz über den Daten-Explorer auswählen, eine Abfrage ausführen und unsere eigenen Daten zur Abfrage hochladen. Zuerst suchen wir nach einem öffentlichen Datensatz, den wir verwenden können. Um einen öffentlichen Datensatz auszuwählen, navigieren Sie zum Explorer-Menü auf der linken Seite des Bildschirms. Klicken Sie oben rechts im Menü auf die Schaltfläche „Daten hinzufügen“. Wählen Sie dann im Dropdown-Menü „Öffentliche Datensätze erkunden“ aus. Dadurch wird der Marktplatz geöffnet und Ihnen verfügbare öffentliche Datensätze angezeigt. Gehen wir zur Leiste „Marktplatzsuche“ und suchen nach „noaa_lightning“, einem Datensatz, den wir in einer bevorstehenden Aktivität verwenden werden. Klicken Sie auf den Datensatz „Cloud-to-Ground Lightning Strikes“. Dadurch erhalten wir eine Beschreibung und Vorschau des Datensatzes, der Beobachtungen über Blitzaktivität und Wettermuster in den Vereinigten Staaten erfasst. Klicken Sie auf „Datensatz anzeigen“. Dadurch kehren Sie zum SQL-Arbeitsbereich zurück und erstellen eine Registerkarte für den Datensatz. Wir können dann zur Registerkarte „Editor“ zurückkehren, die wir geöffnet haben, oder auf „Neue Abfrage erstellen“ klicken, um mit dem Schreiben mit SQL zu beginnen. Beachten Sie, dass sich links im Explorer-Menü die Dropdown-Liste „Öffentliche Daten von BigQuery“ befindet. Wir können auf den Pfeil klicken, um die BigQuery-Datenliste zu erweitern und einen neuen Datensatz auszuwählen. Wählen wir den ersten Datensatz in der Dropdown-Liste aus, austin_311. Wenn wir das tun, wird es erweitert, um die Tabelle innerhalb des Datensatzes anzuzeigen. Wir können den Datensatz für eine Vorschau öffnen. Die Registerkarte „Schema“ enthält die Namen jeder Spalte im Datensatz. Die Registerkarte „Details“ enthält zusätzliche Metadaten, beispielsweise das Erstellungsdatum des Datensatzes. Die Registerkarte „Vorschau“ enthält die ersten Zeilen aus dem Datensatz. Auf dieser Seite können wir auf „Abfrage“ klicken, um automatisch ein neues Editorfenster mit der bereits ausgefüllten Vorlage für eine Abfrage zu erstellen. Geben Sie von hier aus ein Sternchen nach „Auswählen“ ein, wo unser Cursor erscheint, und führen Sie dann die Abfrage aus. Herzlichen Glückwunsch, Sie haben eine SQL-Abfrage in BigQuery ausgeführt. Die von Ihnen ausgeführte Abfrage hat Zeilen aus dem Datensatz zurückgegeben, die in einem Fenster unterhalb der Editoroberfläche angezeigt werden. Hier werden auch Ergebnisse aller von Ihnen ausgeführten Abfragen angezeigt. Nehmen wir nun an, Sie haben die Ergebnisse einer Umfrage, die Sie in BigQuery hochladen und mit SQL analysieren möchten. Um Ihre eigenen Daten zu BigQuery hinzuzufügen, wählen Sie die ID des Projekts aus, zu dem Sie hinzufügen möchten. Wählen Sie das Symbol mit den drei vertikalen Punkten aus, um Optionen für das Projekt zu öffnen, und wählen Sie dann „Datensatz erstellen“. Benennen Sie den Datensatz so, dass Sie ihn später besser identifizieren können, z. B. upload_test_dataset. Klicken Sie dann auf „Datensatz erstellen“. Gehen Sie als Nächstes zum Explorer-Menü und wählen Sie im Dropdown-Menü „Projekte“ die drei vertikalen Punkte neben dem Datensatz aus. Jetzt wählen wir das Symbol zum Erstellen einer Tabelle aus, wodurch ein Popup-Fenster geöffnet wird. Wählen Sie unter Quelle und Tabelle erstellen aus die Option „Hochladen“ oder die von Ihnen bevorzugte Methode zum Hochladen Ihrer Daten aus. Hier können wir jede beliebige Datendatei hochladen, beispielsweise eine CSV-Datei. Geben wir unserer Tabelle einen hilfreichen Namen, z. B. test_table. Stellen Sie sicher, dass das Schema auf automatische Erkennung eingestellt ist, und wählen Sie „Tabelle erstellen“. BigQuery bietet noch mehr. Schauen Sie sich dieses Video jederzeit noch einmal an und üben Sie weiter. Bis bald.

Sehen Sie sich den Inhalt des Google Data Analytics-Zertifikats zu bewährten SQL-Methoden an

Zu diesen Best Practices gehören Richtlinien zum Schreiben von SQL-Abfragen, zum Entwickeln von Dokumentationen und Beispiele, die diese Praktiken veranschaulichen. Dies ist eine großartige Ressource, die Sie zur Hand haben sollten, wenn Sie selbst SQL verwenden; Sie können einfach direkt zum entsprechenden Abschnitt gehen, um diese Praktiken zu überprüfen. Betrachten Sie es wie einen SQL-Feldführer!

Groß- und Kleinschreibung beachten

Bei SQL spielt die Groß- und Kleinschreibung normalerweise keine Rolle. Sie könnten SELECT oder select oder SeLeCT schreiben. Sie funktionieren alle! Wenn Sie jedoch die Groß- und Kleinschreibung als Teil eines konsistenten Stils verwenden, sehen Ihre Abfragen professioneller aus.

Um SQL-Abfragen wie ein Profi zu schreiben, ist es immer eine gute Idee, für Klauselstarter Großbuchstaben zu verwenden (z. B. SELECT, FROM, WHERE usw.). Funktionen sollten auch in Großbuchstaben geschrieben werden (z. B. SUM()). Spaltennamen sollten ausschließlich in Kleinbuchstaben geschrieben sein (siehe Abschnitt über „snake_case“ weiter unten in diesem Handbuch). Tabellennamen sollten in CamelCase vorliegen (siehe Abschnitt über CamelCase weiter unten in diesem Handbuch). Dies trägt dazu bei, dass Ihre Abfragen konsistent und leichter lesbar bleiben, ohne dass dies Auswirkungen auf die Daten hat, die bei der Ausführung abgerufen werden. Die Groß- und Kleinschreibung spielt nur dann eine Rolle, wenn sie in Anführungszeichen steht (mehr zu Anführungszeichen weiter unten).

Anbieter von SQL-Datenbanken verwenden möglicherweise leicht unterschiedliche SQL-Varianten. Diese Variationen werden SQL-Dialekte genannt . Bei einigen SQL-Dialekten muss die Groß-/Kleinschreibung beachtet werden. BigQuery ist einer davon. Vertica ist eine andere. Aber die meisten, wie MySQL, PostgreSQL und SQL Server, berücksichtigen nicht die Groß-/Kleinschreibung. Das heißt, wenn Sie nach „country_code = „us““ gesucht haben, werden alle Einträge zurückgegeben, die „us“, „uS“, „Us“ und „US“ enthalten. Dies ist bei BigQuery nicht der Fall. Bei BigQuery wird die Groß-/Kleinschreibung beachtet, sodass dieselbe Suche nur Einträge zurückgibt, bei denen der Ländercode genau „us“ lautet. Wenn der Ländercode „US“ lautet, würde BigQuery diese Einträge nicht als Teil Ihres Ergebnisses zurückgeben.

Einfache oder doppelte Anführungszeichen: “ oder “ „

In den meisten Fällen spielt es auch keine Rolle, ob Sie bei der Bezugnahme auf Zeichenfolgen einfache Anführungszeichen „ “ oder doppelte Anführungszeichen „ “ verwenden. Beispielsweise ist SELECT ein Klauselstarter. Wenn Sie SELECT in Anführungszeichen wie „SELECT“ oder „SELECT“ setzen, behandelt SQL es als Textzeichenfolge. Ihre Abfrage gibt einen Fehler zurück, da Ihre Abfrage eine SELECT-Klausel benötigt.

Es gibt jedoch zwei Situationen, in denen es wichtig ist, welche Art von Anführungszeichen Sie verwenden:

  1. Wenn Sie möchten, dass Zeichenfolgen in jedem SQL-Dialekt identifizierbar sind

  2. Wenn Ihre Zeichenfolge ein Apostroph oder Anführungszeichen enthält

In jedem SQL-Dialekt gibt es Regeln dafür, was akzeptiert wird und was nicht. Eine allgemeine Regel in fast allen SQL-Dialekten besteht jedoch darin, einfache Anführungszeichen für Zeichenfolgen zu verwenden. Dies hilft, eine Menge Verwirrung zu beseitigen. Wenn wir also in einer WHERE-Klausel auf das Land US verweisen möchten (z. B. Country_code = ‚US‘), dann verwenden Sie einfache Anführungszeichen um die Zeichenfolge ‚US‘.

Die zweite Situation ist, wenn Ihre Zeichenfolge Anführungszeichen enthält. Angenommen, Sie haben eine Spalte mit Lieblingsspeisen in einer Tabelle namens FavoriteFoods und die andere Spalte entspricht jedem Freund.

Freund

Lieblingsessen

Rachel DeSantos

Hirtenkuchen

Sujin Lee

Tacos

Najil Okoro

Spanische Paella

Möglicherweise fällt Ihnen auf, dass Rachels Lieblingsessen ein Apostroph enthält. Wenn Sie in einer WHERE-Klausel einfache Anführungszeichen verwenden würden, um den Freund zu finden, der dieses Lieblingsessen hat, würde das so aussehen:

Screenshot der Where-Klausel-Abfrage mit Shepherd's Pie in einfachen Anführungszeichen

Das wird nicht funktionieren. Wenn Sie diese Abfrage ausführen, erhalten Sie als Antwort eine Fehlermeldung. Dies liegt daran, dass SQL eine Textzeichenfolge als etwas erkennt, das mit einem Anführungszeichen beginnt und mit einem weiteren Anführungszeichen endet. In der obigen fehlerhaften Abfrage geht SQL also davon aus, dass das gesuchte Lieblingsessen „Shepherd“ ist. Nur „Shepherd“, weil das Apostroph in Shepherd die Zeichenfolge beendet.

Im Allgemeinen sollte dies das einzige Mal sein, dass Sie doppelte Anführungszeichen anstelle von einfachen Anführungszeichen verwenden. Ihre Abfrage würde also stattdessen so aussehen:

SELECT Friend FROM FavoriteFoods WHERE Favorite_food = "Shepherd's Pie"

SQL versteht Textzeichenfolgen so, dass sie entweder mit einem einfachen Anführungszeichen ‚ oder einem doppelten Anführungszeichen beginnen. Da diese Zeichenfolge mit doppelten Anführungszeichen beginnt, erwartet SQL ein weiteres doppeltes Anführungszeichen, um das Ende der Zeichenfolge anzuzeigen. Dadurch bleibt das Apostroph geschützt, sodass es „ zurückgibt. „Shepherd’s Pie“ und nicht „Shepherd“.

Kommentare als Erinnerung

Je vertrauter Sie mit SQL werden, desto besser können Sie Abfragen auf einen Blick lesen und verstehen. Aber es schadet nie, Kommentare in die Abfrage einzufügen, um sich daran zu erinnern, was Sie tun möchten. Und wenn Sie Ihre Anfrage teilen, hilft es auch anderen, sie zu verstehen.

Zum Beispiel:

Sie können in der obigen Abfrage # anstelle der beiden Bindestriche — verwenden. Beachten Sie jedoch, dass # nicht in allen SQL-Dialekten erkannt wird (MySQL erkennt # nicht). Daher ist es am besten, es zu verwenden – und konsequent dabei zu bleiben. Wenn Sie mit — einen Kommentar zu einer Abfrage hinzufügen, ignoriert die Datenbankabfrage-Engine alles in derselben Zeile nach –. Die Verarbeitung der Abfrage wird ab der nächsten Zeile fortgesetzt.

Snake_case-Namen für Spalten

Es ist wichtig, immer sicherzustellen, dass die Ausgabe Ihrer Abfrage leicht verständliche Namen hat. Wenn Sie eine neue Spalte erstellen (z. B. aus einer Berechnung oder aus der Verkettung neuer Felder), erhält die neue Spalte einen generischen Standardnamen (z. B. f0). Zum Beispiel:

WÄHLEN Sie SUM(Tickets), COUNT (Tickets), SUM (Tickets) AS total_tickets, COUNT (Tickets) AS number_of_purchases FROM Käufe

Ergebnisse sind:

f0

f1

total_tickets

number_of_purchases

8

4

8

4

Die ersten beiden Spalten heißen f0 und f1, da sie in der obigen Abfrage nicht benannt wurden. SQL verwendet standardmäßig f0, f1, f2, f3 usw. Wir haben die letzten beiden Spalten „total_tickets“ und „number_of_purchases“ benannt, damit diese Spaltennamen in den Abfrageergebnissen angezeigt werden. Aus diesem Grund ist es immer sinnvoll, Ihren Spalten sinnvolle Namen zu geben, insbesondere wenn Sie Funktionen verwenden. Nachdem Sie Ihre Abfrage ausgeführt haben, möchten Sie Ihre Ergebnisse, wie die letzten beiden Spalten, die wir im Beispiel beschrieben haben, schnell verstehen.

Darüber hinaus fällt Ihnen möglicherweise auf, dass zwischen den Wörtern in den Spaltennamen ein Unterstrich steht. Namen sollten niemals Leerzeichen enthalten. Wenn „total_tickets“ ein Leerzeichen hätte und wie „totaltickets“ aussehen würde, würde SQL SUM(tickets) einfach in „total“ umbenennen. Aufgrund des Platzes verwendet SQL „total“ als Namen und versteht nicht, was Sie mit „Tickets“ meinen. Daher sind Leerzeichen in SQL-Namen schlecht. Verwenden Sie niemals Leerzeichen.

Die beste Vorgehensweise ist die Verwendung von „snake_case“. Das bedeutet, dass „totaltickets“, bei dem zwischen den beiden Wörtern ein Leerzeichen steht, als „total_tickets“ mit einem Unterstrich anstelle eines Leerzeichens geschrieben werden sollte.

CamelCase-Namen für Tabellen

Sie können bei der Benennung Ihrer Tabelle auch die CamelCase-Großschreibung verwenden. CamelCase-Großschreibung bedeutet, dass Sie den Anfang jedes Wortes groß schreiben, wie bei einem zweihöckrigen (baktrischen) Kamel. Daher verwendet die Tabelle TicketsByOccasion die CamelCase-Großschreibung. Bitte beachten Sie, dass die Großschreibung des ersten Wortes in CamelCase optional ist; CamelCase wird ebenfalls verwendet. Manche Leute unterscheiden zwischen den beiden Stilen, indem sie CamelCase, PascalCase nennen und camelCase für den Fall reservieren, dass das erste Wort nicht großgeschrieben wird, wie bei einem einhöckrigen Kamel (Dromedar); zum Beispiel „ticketsByOccasion“.

Letztendlich ist CamelCase eine Stilwahl. Es gibt andere Möglichkeiten, Ihre Tabellen zu benennen, darunter:

  • Alles in Klein- oder Großschreibung, z. B. „ticketsbyoccasion“ oder „TICKETSBYOCCASION“.

  • Mit Snake_case, wie Tickets_by_occasion

Beachten Sie, dass die Option mit ausschließlich Klein- oder Großbuchstaben das Lesen Ihres Tabellennamens erschweren kann und daher nicht für den professionellen Gebrauch empfohlen wird.

Die zweite Option, „snake_case“, ist technisch in Ordnung. Wenn die Wörter durch Unterstriche getrennt sind, ist Ihr Tabellenname gut lesbar, kann aber durch das Hinzufügen der Unterstriche sehr lang werden. Außerdem nimmt das Schreiben mehr Zeit in Anspruch. Wenn Sie diesen Tisch häufig benutzen, kann es zu einer lästigen Pflicht werden.

Zusammenfassend lässt sich sagen, dass es Ihnen überlassen bleibt, beim Erstellen von Tabellennamen „snake_case“ oder „CamelCase“ zu verwenden. Stellen Sie einfach sicher, dass Ihr Tabellenname leicht lesbar und konsistent ist. Stellen Sie außerdem sicher, dass Sie herausfinden, ob Ihr Unternehmen eine bevorzugte Art der Tabellenbenennung hat. Wenn dies der Fall ist, halten Sie sich aus Konsistenzgründen immer an die Namenskonvention.

Vertiefung

Als allgemeine Regel gilt, dass die Länge jeder Zeile in einer Abfrage <= 100 Zeichen betragen soll. Dadurch sind Ihre Abfragen leicht lesbar. Sehen Sie sich zum Beispiel diese Abfrage mit einer Zeile mit mehr als 100 Zeichen an:

Screenshot der Abfrage

Diese Abfrage ist schwer zu lesen und ebenso schwer zu beheben oder zu bearbeiten. Hier ist nun eine Abfrage, bei der wir uns an die <= 100-Zeichen-Regel halten:

Jetzt ist es viel einfacher zu verstehen, was Sie mit der SELECT-Klausel tun möchten. Natürlich werden beide Abfragen problemlos ausgeführt, da Einrückungen in SQL keine Rolle spielen. Dennoch ist die richtige Einrückung wichtig, um die Zeilen kurz zu halten. Und jeder, der Ihre Anfrage liest, wird es zu schätzen wissen, auch Sie selbst!

Mehrzeilige Kommentare

Wenn Sie Kommentare verfassen, die mehrere Zeilen umfassen, können Sie — für jede Zeile verwenden. Wenn Sie mehr als zwei Kommentarzeilen haben, ist es möglicherweise sauberer und einfacher, /* zum Starten des Kommentars und */ zum Schließen des Kommentars zu verwenden. Beispielsweise können Sie die Methode — wie folgt verwenden:

Screenshot der Abfrage

Oder Sie können die /* */-Methode wie folgt verwenden:

Screenshot der Abfrage

In SQL spielt es keine Rolle, welche Methode Sie verwenden. SQL ignoriert Kommentare unabhängig davon, was Sie verwenden: #, — oder /* und */. Es liegt also an Ihnen und Ihren persönlichen Vorlieben. Die Methoden /* und */ für mehrzeilige Kommentare sehen normalerweise sauberer aus und helfen dabei, die Kommentare von der Abfrage zu trennen. Aber es gibt nicht die eine richtige oder falsche Methode.

SQL-Texteditoren

Wenn Sie einem Unternehmen beitreten, können Sie davon ausgehen, dass jedes Unternehmen seine eigene SQL-Plattform und seinen eigenen SQL-Dialekt verwendet. Auf der von ihnen verwendeten SQL-Plattform (z. B. BigQuery, MySQL oder SQL Server) schreiben Sie Ihre SQL-Abfragen und führen sie aus. Beachten Sie jedoch, dass nicht alle SQL-Plattformen native Skripteditoren zum Schreiben von SQL-Code bereitstellen. SQL-Texteditoren bieten Ihnen eine Schnittstelle, über die Sie Ihre SQL-Abfragen einfacher und farbcodiert schreiben können. Tatsächlich wurde der gesamte Code, mit dem wir bisher gearbeitet haben, mit einem SQL-Texteditor geschrieben!

Beispiele mit erhabenem Text

Wenn Ihre SQL-Plattform nicht über eine Farbcodierung verfügt, sollten Sie über die Verwendung eines Texteditors wie z. B. nachdenkenErhabener TextoderAtom. In diesem Abschnitt wird gezeigt, wie SQL in Sublime Text angezeigt wird. Hier ist eine Abfrage in Sublime Text:

Screenshot der Anfrage in erhabenem Text

Mit Sublime Text können Sie auch erweiterte Bearbeitungen durchführen, wie etwa das gleichzeitige Löschen von Einzügen über mehrere Zeilen hinweg. Angenommen, Ihre Abfrage hatte irgendwie Einzüge an den falschen Stellen und sah so aus:

Screenshot einer Abfrage mit falschen Einrückungen

Das ist wirklich schwer zu lesen, deshalb sollten Sie diese Einrückungen entfernen und von vorne beginnen. Auf einer normalen SQL-Plattform müssten Sie in jede Zeile gehen und die RÜCKTASTE drücken, um jeden Einzug pro Zeile zu löschen. Aber in Sublime können Sie alle Einrückungen gleichzeitig entfernen, indem Sie alle Zeilen auswählen und Befehl (oder STRG in Windows) + [ drücken. Dadurch werden Einzüge in jeder Zeile vermieden. Anschließend können Sie die Zeilen auswählen, die Sie einrücken möchten (z. B. Zeilen 2, 4 und 6), indem Sie die Befehlstaste (oder die STRG-Taste in Windows) drücken und diese Zeilen auswählen. Halten Sie dann weiterhin die Befehlstaste (oder die STRG-Taste in Windows) gedrückt und drücken Sie ], um die Zeilen 2, 4 und 6 gleichzeitig einzurücken. Dadurch wird Ihre Abfrage bereinigt und sie sieht stattdessen wie folgt aus:

Screenshot der Abfrage, bei der alle Zeilen korrekt eingerückt sind

Sublime Text unterstützt auch reguläre Ausdrücke. Mit regulären Ausdrücken (oder Regex ) können Sie in Abfragen nach Zeichenfolgenmustern suchen und diese ersetzen. Wir gehen hier nicht auf reguläre Ausdrücke ein, aber vielleicht möchten Sie selbst mehr darüber erfahren, da sie ein sehr leistungsfähiges Werkzeug sind.

Sie können mit diesen Ressourcen beginnen:

Willkommen zu Modul 2

Video 60

Um Ihren Stakeholdern effizient die aktuellsten Informationen bereitzustellen, müssen Sie zunächst die Abfrageleistung in Ihren Pipelines verstehen und optimieren. Und das werden wir in den nächsten Videos erkunden. Wir werden herausfinden, wie wir den Durchsatz steigern und den Wettbewerb um Ressourcen innerhalb des Systems minimieren können, um die Verarbeitung der größtmöglichen Arbeitslast zu ermöglichen. Wir beschäftigen uns mit Datenbanksystemen, einschließlich Data Marts, Data Lakes, Data Warehouses und ELT-Prozessen. Das ist kein Tippfehler, ELT unterscheidet sich von ETL. Es steht für Extrahieren, Laden und Transformieren. Sie werden auch erleben, wie diese Systeme zur Gesamteffizienz Ihrer Datensysteme beitragen. Darüber hinaus untersuchen Sie die fünf Faktoren Datenbankleistung, Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Und Sie erhalten einige Tipps, wie Sie sicherstellen können, dass Ihre Datenbankaufnahme und -speicherung optimal ist. Abschließend beginnen wir darüber nachzudenken, wie wir effiziente Abfragen entwerfen können, die das Beste aus Ihren Systemen herausholen. Lass es uns tun.

Data Marts, Data Lakes und der ETL-Prozess

Video 61

Das Erstaunliche an BI ist, dass sich die Tools und Prozesse ständig weiterentwickeln. Das bedeutet, dass BI-Experten immer neue Möglichkeiten haben, bestehende Systeme aufzubauen und zu verbessern. Lassen Sie uns also einige andere interessante Datenspeicherungs- und -verarbeitungsmuster kennenlernen, denen Sie als BI-Experte begegnen könnten. In diesen Kursen haben wir etwas über Datenbanksysteme gelernt, die Data Warehouses für ihren Speicherbedarf nutzen. Zur Erinnerung: Ein Data Warehouse ist eine spezielle Art von Datenbank, die Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten.
Video abspielen, beginnend bei ::36 und dem Transkript folgen0:36
Im Grunde ist ein Data Warehouse eine riesige Sammlung von Daten aus allen Systemen des Unternehmens. Data Warehouses waren weit verbreitet, als Unternehmen eine einzige Maschine zum Speichern und Berechnen ihrer relationalen Datenbanken verwendeten. Mit dem Aufkommen von Cloud-Technologien und der Explosion des Datenvolumens entstanden jedoch neue Muster für die Datenspeicherung und -berechnung. Eines dieser Tools ist ein Data Mart. Wie Sie sich vielleicht erinnern, ist ein Data Mart eine themenorientierte Datenbank, die eine Teilmenge eines größeren Data Warehouse sein kann. NBI, themenorientiert, beschreibt etwas, das mit bestimmten Bereichen oder Abteilungen eines Unternehmens wie Finanzen, Vertrieb oder Marketing verbunden ist. Während Sie lernen, konzentrieren sich BI-Projekte üblicherweise auf die Beantwortung verschiedener Fragen für verschiedene Teams. Ein Data Mart ist also eine bequeme Möglichkeit, auf die relevanten Daten zuzugreifen, die für ein bestimmtes Projekt abgerufen werden müssen. Schauen wir uns nun die Data Lakes an. Ein Data Lake ist ein Datenbanksystem, das große Mengen an Rohdaten im Originalformat speichert, bis sie benötigt werden. Dadurch sind die Daten leicht zugänglich, da kein großer Verarbeitungsaufwand erforderlich ist. Wie ein Data Warehouse kombiniert ein Data Lake viele verschiedene Quellen, aber Data Warehouses sind hierarchisch mit Dateien und Ordnern zur Organisation der Daten. Während Datenseen flach sind und Daten zwar mit Tags versehen sind, damit sie identifizierbar sind, sind sie nicht organisiert, sondern fließend, weshalb sie als Datenseen bezeichnet werden. Für Data Lakes ist keine Transformation der Daten vor der Speicherung erforderlich. Sie sind daher nützlich, wenn Ihr BI-System viele verschiedene Datentypen aufnimmt. Aber natürlich muss der Staat irgendwann organisiert und umgestaltet werden. Eine Möglichkeit, Data Lakes in ein Datensystem zu integrieren, ist ELT. Zuvor haben wir den ETL-Prozess kennengelernt, bei dem Daten aus der Quelle in die Pipeline extrahiert werden. Während des Transports wird es umgewandelt und dann an seinen Bestimmungsort verladen. ELT führt die gleichen Schritte aus, organisiert sie jedoch neu, sodass die Pipeline die Daten extrahiert, lädt und dann transformiert. Grundsätzlich handelt es sich bei ELT um eine Art Datenpipeline, die es ermöglicht, Daten aus verschiedenen Quellen zu sammeln. In der Regel handelt es sich dabei um Data Lakes, die dann in ein einheitliches Zielsystem geladen und in ein nützliches Format umgewandelt werden. Mit ELT können BI-Experten so viele verschiedene Arten von Daten in ein Speichersystem aufnehmen, sobald diese Daten verfügbar sind. Und sie müssen nur die Daten transformieren, die sie benötigen. ELT senkt außerdem die Speicherkosten und ermöglicht es Unternehmen, Speicher- und Rechenressourcen unabhängig zu skalieren. Mit dem Fortschritt der Technologie entwickeln sich auch die verfügbaren Prozesse und Tools weiter, und das ist großartig. Einige der erfolgreichsten BI-Experten schneiden gut ab, weil sie neugierig sind und lebenslang lernen.

ETL versus ELT

Bisher haben Sie in diesem Kurs etwas über ETL-Pipelines gelernt, die Daten zwischen Datenbankspeichersystemen extrahieren, transformieren und laden. Sie haben auch begonnen, sich mit neueren Pipeline-Systemen wie ELT-Pipelines vertraut zu machen, die Daten extrahieren, laden und dann transformieren. In dieser Lektüre erfahren Sie mehr über die Unterschiede zwischen diesen beiden Systemen und darüber, wie verschiedene Arten von Datenbankspeicher in diese Systeme passen. Wenn Sie diese Unterschiede verstehen, können Sie wichtige Entscheidungen treffen, die Leistung und Optimierung fördern und sicherstellen, dass die Systeme Ihres Unternehmens effizient und effektiv sind.

Der Hauptunterschied zwischen diesen beiden Pipelinesystemen besteht in der Reihenfolge, in der sie Daten transformieren und laden. Darüber hinaus gibt es einige weitere wesentliche Unterschiede in der Art und Weise, wie sie konstruiert und verwendet werden:

Unterschiede

ETL

ELT

Die Reihenfolge der Extraktion, Transformation und des Ladens von Daten

Daten werden extrahiert, in einem Staging-Bereich transformiert und in das Zielsystem geladen

Daten werden extrahiert, in das Zielsystem geladen und nach Bedarf für die Analyse transformiert

Ort der Transformationen

Die Daten werden in einen Staging-Bereich verschoben, wo sie vor der Übermittlung umgewandelt werden

Die Daten werden im Zielsystem transformiert, sodass kein Staging-Bereich erforderlich ist

Zeitalter der Technologie

ETL wird seit über 20 Jahren verwendet und es wurden viele Tools zur Unterstützung von ETL-Pipelinesystemen entwickelt

ELT ist eine neuere Technologie mit weniger in die bestehende Technologie integrierten Support-Tools

Zugriff auf Daten innerhalb des Systems

ETL-Systeme transformieren und laden nur die Daten, die beim Aufbau des Warehouses und der Pipeline festgelegt wurden

ELT-Systeme laden alle Daten, sodass Benutzer jederzeit auswählen können, welche Daten analysiert werden sollen

Berechnungen

In einem ETL-System ausgeführte Berechnungen ersetzen oder überarbeiten vorhandene Spalten, um die Ergebnisse in die Zieltabelle zu übertragen

Berechnungen werden direkt zum vorhandenen Datensatz hinzugefügt

Kompatible Speichersysteme

ETL-Systeme sind typischerweise in strukturierte, relationale Data Warehouses integriert

ELT-Systeme können unstrukturierte Daten aus Quellen wie Data Lakes aufnehmen

Sicherheit und Compliance

Sensible Informationen können vor dem Laden in das Data Warehouse geschwärzt oder anonymisiert werden, wodurch die Daten geschützt werden

Daten müssen hochgeladen werden, bevor Daten anonymisiert werden können, was sie anfälliger macht

Datengröße

ETL eignet sich hervorragend für den Umgang mit kleineren Datensätzen, die komplexe Transformationen durchlaufen müssen

ELT eignet sich gut für Systeme, die große Mengen strukturierter und unstrukturierter Daten verwenden

Wartezeiten

ETL-Systeme haben längere Ladezeiten, aber die Analyse erfolgt schneller, da die Daten bereits transformiert sind, wenn Benutzer darauf zugreifen

Das Laden von Daten erfolgt in ELT-Systemen sehr schnell, da Daten erfasst werden können, ohne auf Transformationen warten zu müssen, die Analyse ist jedoch langsamer

Datenspeichersysteme

Da ETL- und ELT-Systeme auf leicht unterschiedliche Weise mit Daten umgehen, sind sie für die Zusammenarbeit mit unterschiedlichen Datenspeichersystemen optimiert. Insbesondere können Sie auf Data Warehouses und Data Lakes stoßen. Zur Erinnerung: Ein Data Warehouse ist eine Art Datenbank, die Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten. Und ein Data Lake ist ein Datenbanksystem, das große Mengen an Rohdaten im Originalformat speichert, bis sie benötigt werden. Obwohl diese beiden Systeme dieselbe Grundfunktion erfüllen, gibt es einige wesentliche Unterschiede:

Data Warehouse

Datensee

Daten wurden bereits verarbeitet und in einem relationalen System gespeichert

Daten sind roh und unverarbeitet, bis sie für die Analyse benötigt werden; Darüber hinaus kann es eine Kopie der gesamten OLTP- oder relationalen Datenbank enthalten

Der Zweck der Daten ist bereits festgelegt und die Daten werden aktuell verwendet

Der Zweck der Daten steht noch nicht fest

Änderungen am System können kompliziert sein und viel Arbeit erfordern

Die Systeme sind gut zugänglich und leicht zu aktualisieren

Es gibt auch eine bestimmte Art von Data Warehouse, die Sie als Datenquelle verwenden können: Data Marts. Data Marts sind in ihrem Aufbau den Data Warehouses sehr ähnlich, nur dass sie viel kleiner sind. Normalerweise ist ein Data Mart eine einzelne Teilmenge eines Data Warehouse, die Daten zu einem einzelnen Thema umfasst.

Die zentralen Thesen

Derzeit sind ETL-Systeme, die Daten extrahieren, transformieren und laden, und ELT-Systeme, die Daten extrahieren, laden und dann transformieren, gängige Methoden für den Aufbau von Pipeline-Systemen, um Daten dorthin zu verschieben, wo sie hin müssen. Wenn Sie die Unterschiede zwischen diesen Systemen verstehen, können Sie erkennen, wann Sie das eine oder andere implementieren möchten. Und da sich Unternehmen und Technologie verändern, wird es viele Möglichkeiten geben, mithilfe dieser Datensysteme neue Lösungen zur Lösung geschäftlicher Probleme zu entwickeln.

Die fünf Faktoren der Datenbankleistung

Video 62

Wir haben die Datenbankoptimierung untersucht und warum es wichtig ist, sicherzustellen, dass Benutzer so effizient wie möglich das bekommen, was sie vom System benötigen. Eine erfolgreiche Optimierung lässt sich an der Datenbankleistung messen. Die Datenbankleistung ist ein Maß für die Arbeitslast, die von einer Datenbank verarbeitet werden kann, sowie für die damit verbundenen Kosten. In diesem Video betrachten wir die Faktoren, die Datenbankleistung, Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikte beeinflussen. Zuerst beginnen wir mit der Arbeitsbelastung. In BI bezieht sich die Arbeitslast auf die Kombination von Transaktionen, Abfragen, Analysen und Systembefehlen, die zu einem bestimmten Zeitpunkt vom Datenbanksystem verarbeitet werden. Es kommt häufig vor, dass die Arbeitslast einer Datenbank von Tag zu Tag drastisch schwankt, je nachdem, welche Jobs verarbeitet werden und wie viele Benutzer mit der Datenbank interagieren. Die gute Nachricht ist, dass Sie diese Schwankungen oft vorhersagen können. Beispielsweise kann am Ende des Monats, wenn Berichte bearbeitet werden, ein höherer Arbeitsaufwand anfallen oder der Arbeitsaufwand kurz vor einem Feiertag sehr gering sein. Als nächstes haben wir den Durchsatz. Der Durchsatz ist die Gesamtfähigkeit der Hardware und Software der Datenbank, Anfragen zu verarbeiten. Der Durchsatz setzt sich zusammen aus der Ein- und Ausgabegeschwindigkeit, der Geschwindigkeit der Zentraleinheit, der Fähigkeit der Maschine, parallele Prozesse auszuführen, dem Datenbankverwaltungssystem sowie dem Betriebssystem und der Systemsoftware. Grundsätzlich beschreibt der Durchsatz die Arbeitslastgröße, die das System bewältigen kann. Kommen wir zu den Ressourcen. In BI sind Ressourcen die Hardware- und Softwaretools, die zur Verwendung in einem Datenbanksystem zur Verfügung stehen. Dazu gehören Speicherplatz und Arbeitsspeicher. Ressourcen sind ein großer Teil der Fähigkeit eines Datenbanksystems, Anfragen zu verarbeiten und Daten zu verarbeiten. Sie können auch schwanken, insbesondere wenn die Hardware oder andere dedizierte Ressourcen mit zusätzlichen Datenbanken, Softwareanwendungen oder Diensten geteilt werden. Zudem sind cloudbasierte Systeme besonders anfällig für Schwankungen. Es ist nützlich, sich daran zu erinnern, dass externe Faktoren die Leistung beeinflussen können. Kommen wir nun zur Optimierung. Bei der Optimierung geht es darum, die Geschwindigkeit und Effizienz des Datenabrufs zu maximieren, um eine hohe Datenbankleistung sicherzustellen. Dies ist einer der wichtigsten Faktoren, auf die BI-Experten immer wieder zurückkommen. Demnächst werden wir ausführlicher darüber sprechen. Schließlich ist der letzte Faktor der Datenbankleistung der Konflikt. Ein Konflikt entsteht, wenn zwei oder mehr Komponenten versuchen, eine einzelne Ressource auf widersprüchliche Weise zu nutzen. Das kann die Dinge wirklich verlangsamen. Wenn beispielsweise mehrere Prozesse versuchen, dasselbe Datenelement zu aktualisieren, stehen diese Prozesse im Konflikt. Mit zunehmender Konkurrenz nimmt der Durchsatz der Datenbank ab. Durch die größtmögliche Begrenzung von Konflikten wird sichergestellt, dass die Datenbank ihre optimale Leistung erbringt. Es gibt fünf Faktoren: Datenbankleistung, Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Als nächstes werden wir uns ein Beispiel dieser Faktoren in Aktion ansehen, damit Sie besser verstehen, wie jeder einzelne zur Datenbankleistung beiträgt.

Ein Leitfaden zu den fünf Faktoren der Datenbankleistung

Die Datenbankleistung ist ein wichtiger Gesichtspunkt für BI-Experten. Wie Sie erfahren haben, ist die Datenbankleistung ein Maß für die Arbeitslast, die von der Datenbank verarbeitet werden kann, sowie für die damit verbundenen Kosten. Bei der Optimierung geht es darum, die Geschwindigkeit und Effizienz des Datenabrufs zu maximieren, um eine hohe Datenbankleistung sicherzustellen. Das bedeutet, dass Ihre Stakeholder den schnellsten Zugriff auf die Daten haben, die sie benötigen, um schnelle und intelligente Entscheidungen zu treffen. Sie haben auch gelernt, dass es fünf Faktoren für die Datenbankleistung gibt: Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt.

Die fünf Faktoren

In dieser Lektüre erhalten Sie einen kurzen Überblick über die fünf Faktoren, auf die Sie jederzeit zurückgreifen können, sowie ein Beispiel, um diese Konzepte zu veranschaulichen. Im Beispiel arbeiten Sie als BI-Experte mit dem Vertriebsteam zusammen, um Einblicke in die Kaufgewohnheiten der Kunden zu gewinnen und den Erfolg aktueller Marketingkampagnen zu überwachen.

Faktor

Definition

Beispiel

Arbeitsbelastung

Die Kombination aus Transaktionen, Abfragen, Data-Warehousing-Analysen und Systembefehlen, die vom Datenbanksystem zu einem bestimmten Zeitpunkt verarbeitet werden.

Täglich muss Ihre Datenbank Verkaufsberichte verarbeiten, Umsatzberechnungen durchführen und auf Echtzeitanfragen von Stakeholdern reagieren. All diese Anforderungen stellen die Arbeitslast dar, die die Datenbank bewältigen muss.

Durchsatz

Die Gesamtfähigkeit der Hardware und Software der Datenbank, Anfragen zu verarbeiten.

Der Durchsatz des Systems ist die Kombination aus Eingabe- und Ausgabegeschwindigkeit, der CPU-Geschwindigkeit, der Fähigkeit der Maschine, parallele Prozesse auszuführen, dem Datenbankverwaltungssystem sowie dem Betriebssystem und der Systemsoftware.

Ressourcen

Die zur Verwendung in einem Datenbanksystem verfügbaren Hardware- und Softwaretools.

Das Datenbanksystem ist in erster Linie cloudbasiert, was bedeutet, dass es zur Aufrechterhaltung der Funktionalität auf Online-Ressourcen und Software angewiesen ist.

Optimierung

Maximierung der Geschwindigkeit und Effizienz des Datenabrufs, um eine hohe Datenbankleistung sicherzustellen.

Zu Ihren Aufgaben als BI-Experte des Teams gehört es, kontinuierlich zu überprüfen, ob die Datenbank optimal läuft.

Streit

Wenn zwei oder mehr Komponenten versuchen, eine einzelne Ressource auf widersprüchliche Weise zu nutzen.

Da dieses System automatisch Berichte generiert und auf Benutzeranfragen reagiert, kann es vorkommen, dass es versucht, Abfragen für dieselben Datensätze gleichzeitig auszuführen, was zu einer Verlangsamung für Benutzer führt.

Optimieren Sie die Datenbankleistung

Video 63

In letzter Zeit haben wir viel über die Datenbankleistung gelernt. Zur Erinnerung: Dies ist ein Maß für die Arbeitslast, die von der Datenbank verarbeitet werden kann, sowie für die damit verbundenen Kosten. Wir haben uns auch mit der Optimierung befasst, die einer der wichtigsten Faktoren für die Datenbankleistung ist. Sie erinnern sich, dass es bei der Optimierung darum geht, die Geschwindigkeit und Effizienz des Datenabrufs zu maximieren, um eine hohe Datenbankleistung sicherzustellen. In diesem Video konzentrieren wir uns auf die Optimierung und darauf, wie BI-Experten Datenbanken optimierten, indem sie die Ressourcennutzung untersuchten und bessere Datenquellen und -strukturen identifizierten. Auch hier besteht das Ziel darin, das System in die Lage zu versetzen, die größtmögliche Arbeitslast zu möglichst vernünftigen Kosten zu verarbeiten. Dies erfordert eine schnelle Antwortzeit, also die Zeit, die eine Datenbank benötigt, um auf eine Benutzeranfrage zu antworten. Hier ist ein Beispiel. Stellen Sie sich vor, Sie sind ein BI-Experte und erhalten E-Mails von Mitarbeitern Ihres Teams, die sagen, dass es länger als gewöhnlich dauert, die benötigten Daten aus der Datenbank abzurufen. Auf den ersten Blick scheint dies eine ziemlich kleine Unannehmlichkeit zu sein, aber eine langsame Datenbank kann störend sein und Ihr Team viel Zeit kosten. Wenn sie anhalten und warten müssen, wann immer sie Daten abrufen oder eine Berechnung durchführen müssen, beeinträchtigt das ihre Arbeit erheblich. Es gibt einige Gründe, warum Benutzer auf dieses Problem stoßen könnten. Möglicherweise sind die Abfragen nicht vollständig optimiert oder die Datenbank ist nicht ordnungsgemäß indiziert oder partitioniert. Möglicherweise sind die Daten fragmentiert, da nicht genügend Speicher oder CPU vorhanden ist. Lassen Sie uns jedes davon untersuchen. Erstens: Wenn die Abfragen, die Benutzer schreiben, um mit der Datenbank zu interagieren, ineffizient sind, kann dies Ihre Datenbankressourcen tatsächlich verlangsamen. Um dies zu vermeiden, besteht der erste Schritt darin, die Abfragen einfach noch einmal zu überprüfen, um sicherzustellen, dass sie so effizient wie möglich sind. Der nächste Schritt besteht darin, den Abfrageplan zu berücksichtigen. In einem relationalen Datenbanksystem, das SQL verwendet, ist ein Abfrageplan eine Beschreibung der Schritte, die das Datenbanksystem unternimmt, um eine Abfrage auszuführen. Wie Sie erfahren haben, sagt eine Abfrage einem System, was es tun soll, aber nicht unbedingt, wie es tun soll. Der Abfrageplan ist das Wie. Wenn Abfragen langsam ausgeführt werden, kann es hilfreich sein, den Abfrageplan zu überprüfen, um herauszufinden, ob es Schritte gibt, die mehr Draw als nötig verursachen. Dies ist ein weiterer iterativer Prozess. Nachdem Sie den Abfrageplan überprüft haben, können Sie die Abfrage neu schreiben oder neue Tabellen erstellen und dann den Abfrageplan erneut überprüfen. Betrachten wir nun die Indizierung. Ein Index ist ein organisatorisches Tag, das zum schnellen Auffinden von Daten in einem Datenbanksystem verwendet wird. Wenn die Tabellen in einer Datenbank nicht vollständig indiziert wurden, kann es länger dauern, bis die Datenbank Ressourcen findet. In Cloud-basierten Systemen, die mit Big Data arbeiten, verfügen Sie möglicherweise über Datenpartitionen anstelle von Indizes. Bei der Datenpartitionierung wird eine Datenbank in verschiedene logische Teile unterteilt, um die Abfrageverarbeitung zu verbessern und die Verwaltbarkeit zu erhöhen. Die Verteilung der Daten innerhalb des Systems ist äußerst wichtig. Auch die Sicherstellung, dass die Daten ordnungsgemäß und konsistent partitioniert wurden, ist Teil der Optimierung. Das nächste Problem sind fragmentierte Daten. Fragmentierte Daten entstehen, wenn Daten in viele Teile zerlegt werden, die nicht zusammen gespeichert werden. Dies ist häufig auf die häufige Verwendung der Daten oder das Erstellen, Löschen oder Ändern von Dateien zurückzuführen. Wenn Sie beispielsweise häufig auf dieselben Daten zugreifen und Versionen davon in Ihrem Cache gespeichert werden, verursachen diese Versionen tatsächlich eine Fragmentierung in Ihrem System. Wenn Ihre Datenbank schließlich Schwierigkeiten hat, mit den Anforderungen Ihrer Organisation Schritt zu halten, liegt das möglicherweise daran, dass nicht genügend Speicher zur Verfügung steht, um alle Anforderungen zu verarbeiten. Es ist von entscheidender Bedeutung, sicherzustellen, dass Ihre Datenbank die Kapazität hat, alles zu verarbeiten, was Sie von ihr verlangen. Betrachten Sie noch einmal unser Beispiel. Sie haben vom Team einige E-Mails erhalten, in denen es hieß, dass der Zugriff auf Daten aus der Datenbank länger als üblich gedauert habe. Nachdem Sie von Ihrem Team von der Verlangsamung erfahren hatten, konnten Sie die Situation einschätzen und einige Korrekturen vornehmen. Durch die Behebung der Probleme konnten Sie sicherstellen, dass die Datenbank für Ihr Team so effizient wie möglich funktioniert. Problem gelöst. Aber die Datenbankoptimierung ist ein fortlaufender Prozess und Sie müssen die Leistung weiterhin überwachen, damit alles reibungslos läuft.

Indizes, Partitionen und andere Möglichkeiten zur Optimierung

Optimierung für das Datenlesen

Eine der ständigen Aufgaben einer Datenbank ist das Auslesen von Daten. Beim Lesen handelt es sich um den Prozess der Interpretation und Verarbeitung von Daten, um sie für Benutzer verfügbar und nützlich zu machen. Wie Sie erfahren haben, ist die Datenbankoptimierung der Schlüssel zur Maximierung der Geschwindigkeit und Effizienz beim Datenabruf, um eine hohe Datenbankleistung sicherzustellen. Die Optimierung des Lesevorgangs ist eine der wichtigsten Möglichkeiten, die Datenbankleistung für Benutzer zu verbessern. Als Nächstes erfahren Sie mehr über verschiedene Möglichkeiten, wie Sie Ihre Datenbank zum Lesen von Daten optimieren können, einschließlich Indizierung und Partitionierung, Abfragen und Caching.

Indizes

Manchmal, wenn Sie ein Buch mit vielen Informationen lesen, wird am Ende des Buches ein Index eingefügt, in dem die Informationen nach Themen geordnet sind und für jede Referenz die Seitenzahlen aufgeführt sind. Das spart Ihnen Zeit, wenn Sie wissen, was Sie finden möchten – anstatt das gesamte Buch durchzublättern, können Sie direkt zum Index gehen, der Sie zu den benötigten Informationen führt.

Indizes in Datenbanken sind im Grunde dasselbe – sie verwenden die Schlüssel aus den Datenbanktabellen, um sehr schnell bestimmte Stellen in der Datenbank zu durchsuchen, anstatt die gesamte Sache. Aus diesem Grund sind sie für die Datenbankoptimierung so wichtig: Wenn Benutzer eine Suche in einer vollständig indizierten Datenbank durchführen, können die Informationen viel schneller zurückgegeben werden. Beispielsweise könnte eine Tabelle mit den Spalten „ID“, „Name“ und „Abteilung“ einen Index mit den entsprechenden Namen und IDs verwenden.

Jetzt kann die Datenbank die Namen in der größeren Tabelle für Suchvorgänge mithilfe dieser IDs aus dem Index schnell und einfach finden.

Partitionen

Die Datenpartitionierung ist eine weitere Möglichkeit, den Datenbankabruf zu beschleunigen. Es gibt zwei Arten der Partitionierung: vertikal und horizontal. Am gebräuchlichsten ist die horizontale Partitionierung. Dabei wird die Datenbank so gestaltet, dass Zeilen durch logische Gruppierungen organisiert und nicht in Spalten gespeichert werden. Die verschiedenen Zeilen werden in verschiedenen Tabellen gespeichert – dies reduziert die Indexgröße und erleichtert das Schreiben und Abrufen von Daten aus der Datenbank.

Anstatt eine Indextabelle zu erstellen, damit die Datenbank die Daten schneller durchsuchen kann, teilen Partitionen größere, unhandliche Tabellen in viel besser verwaltbare, kleinere Tabellen auf.

In diesem Beispiel wird die größere Verkaufstabelle in kleinere Tabellen unterteilt. Diese kleineren Tabellen lassen sich leichter abfragen, da die Datenbank nicht so viele Daten auf einmal durchsuchen muss.

Andere Optimierungsmethoden

Sie können Ihre Datenbank nicht nur einfacher durchsuchen, indem Sie Indizes und Partitionen verwenden, sondern auch Ihre tatsächlichen Suchvorgänge hinsichtlich der Lesbarkeit optimieren oder den zwischengespeicherten Speicher Ihres Systems nutzen, um beim Abrufen häufig verwendeter Daten Zeit zu sparen. 

Abfragen

Abfragen sind Anfragen nach Daten oder Informationen aus einer Datenbank. In vielen Fällen verfügen Sie möglicherweise über eine Sammlung von Abfragen, die Sie regelmäßig ausführen. Dies können automatisierte Abfragen sein, die Berichte generieren, oder regelmäßige Suchvorgänge von Benutzern.

Wenn diese Abfragen nicht optimiert sind, kann es lange dauern, bis sie Ergebnisse an Benutzer zurückgeben, und im Allgemeinen Datenbankressourcen beanspruchen. Es gibt ein paar Dinge, die Sie tun können, um Abfragen zu optimieren:

  1. Berücksichtigen Sie die Geschäftsanforderungen: Wenn Sie die Geschäftsanforderungen verstehen, können Sie feststellen, welche Informationen Sie wirklich aus der Datenbank abrufen müssen, und das System nicht unnötig belasten, indem Sie nach Daten fragen, die Sie eigentlich nicht benötigen.

  2. Vermeiden Sie die Verwendung von SELECT* und SELECT DISTINCT: Die Verwendung von SELECT* und SELECT DISTINCT führt dazu, dass die Datenbank viele unnötige Daten analysieren muss. Stattdessen können Sie Abfragen optimieren, indem Sie nach Möglichkeit bestimmte Felder auswählen.

  3. Verwenden Sie INNER JOIN anstelle von Unterabfragen: Die Verwendung von Unterabfragen führt dazu, dass die Datenbank eine große Anzahl von Ergebnissen analysiert und diese dann filtert, was mehr Zeit in Anspruch nehmen kann als das einfache JOIN-Verknüpfen von Tabellen.

Darüber hinaus können Sie voraggregierte Abfragen verwenden, um die Lesefunktionalität der Datenbank zu erhöhen. Grundsätzlich bedeutet das Voraggregieren von Daten, dass die Daten, die zum Messen bestimmter Metriken erforderlich sind, in Tabellen zusammengestellt werden, sodass die Daten nicht jedes Mal neu erfasst werden müssen, wenn Sie eine Abfrage darauf ausführen.

Wenn Sie mehr über die Optimierung von Abfragen erfahren möchten, können Sie hier vorbeischauenDevarts Artikel zur SQL-Abfrageoptimierung.

Caching

Schließlich kann der Cache eine nützliche Möglichkeit sein, die Lesbarkeit Ihrer Datenbank zu optimieren. Im Wesentlichen handelt es sich beim Cache um eine Schicht des Kurzzeitgedächtnisses, in der Tabellen und Abfragen gespeichert werden können. Indem Sie den Cache anstelle des Datenbanksystems selbst abfragen, können Sie tatsächlich Ressourcen sparen. Sie können einfach aus der Erinnerung nehmen, was Sie brauchen.

Wenn Sie beispielsweise häufig auf die Datenbank für jährliche Verkaufsberichte zugreifen, können Sie diese Berichte im Cache speichern und direkt aus dem Speicher abrufen, anstatt die Datenbank immer wieder auffordern zu müssen, sie zu generieren.

Die zentralen Thesen

Dieser Kurs hat sich stark auf die Datenbankoptimierung konzentriert und darauf, wie Sie als BI-Experte sicherstellen können, dass die Systeme und Lösungen, die Sie für Ihr Team erstellen, weiterhin so effizient wie möglich funktionieren. Die Verwendung dieser Methoden kann für Sie eine wichtige Möglichkeit sein, die Datenbankgeschwindigkeit und -verfügbarkeit zu verbessern, wenn Teammitglieder auf das Datenbanksystem zugreifen. Und bald werden Sie Gelegenheit haben, selbst mit diesen Konzepten zu arbeiten!

Aktivitätsbeispiel: Daten partitionieren und Indizes in BigQuery erstellen

Hier ist ein fertiges Exemplar zusammen mit einer Erklärung, wie das Exemplar die Erwartungen an die Aktivität erfüllt. 

Bewertung von Exemplar

Vergleichen Sie das Exemplar mit Ihrer abgeschlossenen Tätigkeit. Überprüfen Sie Ihre Arbeit anhand der einzelnen Kriterien im Beispiel. Was hast du gut gemacht? Wo können Sie sich verbessern? Nutzen Sie Ihre Antworten auf diese Fragen als Leitfaden für den weiteren Verlauf des Kurses. 

In der vorherigen Aktivität haben Sie SQL-Code ausgeführt, der Tabellen mit Partitionen und Indizes erstellt hat. Mithilfe von Partitionen und Indizes können Sie Verknüpfungen zu bestimmten Zeilen erstellen und große Datensätze in kleinere, besser verwaltbare Tabellen aufteilen. Durch die Erstellung von Partitionen und Indizes können Sie schnellere und effizientere Datenbanken erstellen und so das Abrufen von Daten erleichtern, wenn Sie diese analysieren oder visualisieren müssen.

Nach dem Erstellen der Tabellen haben Sie Abfragen für diese Tabellen ausgeführt, um deren Leistung zu vergleichen und zu demonstrieren, wie nützlich Partitionen und Indizes sein können.

Bei jedem Schritt haben Sie Screenshots des Bereichs „Details“ oder „Ausführungsdetails“ gemacht , um sie mit den folgenden Beispielbildern zu vergleichen. Dadurch können Sie sicherstellen, dass Sie die Aktivität ordnungsgemäß abgeschlossen haben. Außerdem wird erläutert, warum sich die von Ihnen erstellten Tabellen und die von Ihnen ausgeführten Abfragen voneinander unterscheiden. Am Ende dieser Lektüre werden Sie verstehen, wie diese Aktivität zeigt, dass Partitionen und Cluster Abfragen beschleunigen und die Datenbankleistung optimieren.

Beachten Sie, dass die Antworten auf diese Fragen unterschiedlich sein können, je nachdem, ob Sie die Sandbox oder die kostenlose Testversion/Vollversion von BigQuery verwenden. Die Sandbox-Version liest möglicherweise nicht den vollständigen Datensatz, sodass die Tabellengröße, die Sie erhalten, möglicherweise nicht mit den Ergebnissen übereinstimmt, die Sie aus der Abfrage in der Vollversion erhalten würden. In dieser Lektüre werden die Ergebnisse sowohl für die Sandbox als auch für die Vollversion erläutert, sodass Sie Ihre Arbeit unabhängig davon überprüfen können, wie Sie BigQuery verwenden.

Entdecken Sie das Exemplar

Tabellendetails

Dies ist der Detailbereich für die Tabelle, die Sie ohne Partitionen oder Indizes erstellt haben. Es beschreibt lediglich die Tabellengröße (4,37 MB logische und aktive Bytes) und die Anzahl der Zeilen (41.025).

Eine Tabelle mit Details. Die Tabellengröße beträgt 4,37 MB und die Langzeitspeichergröße beträgt 0 MB. Die Anzahl der Zeilen beträgt 41.025.

Dies ist der Detailbereich für die Tabelle, die Sie mit einer Partition erstellt haben. Es enthält die gleichen Details wie der erste Detailbereich, enthält jedoch auch Details zum Tabellentyp (partitioniert) sowie zum Feld, in dem die Partition erstellt wurde (Jahr).

Die Sandbox-Einschränkungen bedeuten, dass diese Tabelle keine Größe hat, aber trotzdem mit der Abfrage erstellt wird. Die Tabellengröße beträgt 0B und es gibt einen Abschnitt, der „Tabellentyp: Partitioniert“, „Partitioniert nach: Ganzzahlbereich“, „Partitioniert nach Feld: Jahr“ und „Partitionsfilter: Nicht erforderlich“ enthält. Der Beginn des Partitionsbereichs (2015), das Ende (2022) und das Intervall werden ebenfalls angezeigt. Die Vollversion hat eine Tabellengröße von 4,37 MB, verfügt aber über den gleichen zusätzlichen Partitionsabschnitt.

Der Tabellentyp enthält partitioniert nach: Integer Range; Aufgeteilt nach Feld: Jahr; Partitionsfilter: Nicht erforderlich

Dies ist der Detailbereich für die Tabelle, die Sie mit einer Partition und Clustern erstellt haben. Es enthält die gleichen Details wie die beiden vorherigen Bilder, enthält aber auch die Information, dass Sie die Daten nach der Typspalte gruppiert haben . Die Sandbox-Version der Tabelle hat möglicherweise keine Tabellengröße, aber die Vollversion verfügt über insgesamt 4,37 MB logische und aktive Bytes.

Die Tabelle wurde unterteilt nach: Ganzzahlbereich; Aufgeteilt nach Feld: Jahr; Filter: Nicht erforderlich; Gruppiert nach: Typ

Ausführungsdetails

Anschließend vergleichen die Bereiche „Ausführungsdetails“ die Abfrageleistung für jede Tabelle. In der Sandbox werden diese Details für Abfragen zu den partitionierten und den partitionierten und geclusterten Tabellen nicht angezeigt. Wenn Sie die Sandbox verwenden, beachten Sie die Screenshots im Abschnitt.

Hinweis : Der Abschnitt „Arbeitszeit“ auf Ihrem Bildschirm kann in Farbe oder Dauer variieren. Abhängig von den unterschiedlichen Servergeschwindigkeiten der BigQuery-Engine kann die Ausführung Ihrer SQL-Abfrage länger oder kürzer dauern. Ihr Bildschirm stimmt möglicherweise nicht mit dem folgenden Screenshot überein, aber die gelesenen und geschriebenen Datensätze sollten mit dem Abschnitt „Zeilen“ übereinstimmen.

Dies ist der Bereich „Ausführungsdetails“ für die Abfrage der Tabelle, die Sie ohne Partitionen oder Cluster erstellt haben. Die Anzahl der gelesenen Zeilen ist die Gesamtzahl der Zeilen in der Tabelle. Sie finden dies im Abschnitt S00:Input, wo Datensätze lauten: 41.025 und Datensätze geschrieben: 3.

Abfrageergebnisse. S00 Gelesene Eingabedatensätze: 41025, geschrieben: 3. S01 Gelesene aggregierte Datensätze: 3, geschrieben: 3

Dies ist der Bereich „Ausführungsdetails“ für die Abfrage der von Ihnen erstellten Tabelle, partitioniert durch einen Ganzzahlbereich . Sie werden feststellen, dass die Anzahl der gelesenen Datensätze geringer ist. Jetzt sind die gelesenen Datensätze 16.953 und die geschriebenen Datensätze 3. In dieser Abfrage verarbeitet die Datenbank nur die Datensätze aus den Partitionen, die durch die Where-Klausel (Typ) gefiltert wurden. Bei der Auswahl einer Spalte zur Partitionierung ist es am effektivsten, eine Spalte auszuwählen, die häufig in der where-Klausel verwendet wird.

Abfrageergebnisse. S00 Eingabedatensätze gelesen: 16.953, geschrieben: 3. S01 Ausgabe gelesen: 3, geschrieben: 3

Dies ist der Bereich „Ausführungsdetails“ für die Abfrage der von Ihnen erstellten Tabelle, die nach der Typspalte gruppiert ist . Gelesene Datensätze: 16.953 und geschriebene Datensätze: 3. Normalerweise verarbeitet eine Abfrage in der gruppierten Tabelle weniger Datensätze als in der partitionierten Tabelle. Allerdings ist der Datensatz, den Sie in dieser Aktivität verwenden, zu klein, um diesen Unterschied richtig darzustellen. In anderen Projekten stellen Sie möglicherweise fest, dass das Clustering einer Tabelle zu einem erheblichen Rückgang der gelesenen Datensätze führt.

Abfrageergebnisse. S00 Eingabedatensätze gelesen: 16953, geschrieben: 3. S01 Ausgabedatensätze gelesen: 3, geschrieben: 3

Die zentralen Thesen

Diese Aktivität demonstriert die Auswirkungen der Verwendung von Partitionen und Indizes (in BigQuery als Cluster bezeichnet) in Datenbanktabellen. Mit ihnen können Sie die Abfrageleistung optimieren und die Verarbeitungskosten minimieren. In dieser Übung bedeutet die Anwendung von Partitionen und Clustering, dass BigQuery alle 41.025 Datensätze zum Lesen in kleinere, besser verwaltbare Tabellen aufteilen kann. Die Vorteile der Partitionierung werden bei größeren Datensätzen noch deutlicher. Nutzen Sie diese Technik, um die Datenbankleistung in Ihren zukünftigen Projekten zu optimieren.

Fallstudie: Deloitte – Optimierung veralteter Datenbanksysteme

In diesem Teil des Kurses haben Sie die Bedeutung der Datenbankoptimierung kennengelernt. Dies bedeutet im Wesentlichen, die Geschwindigkeit und Effizienz des Datenabrufs zu maximieren, um eine hohe Datenbankleistung sicherzustellen. Zu den Aufgaben eines BI-Experten gehört es, die Ressourcennutzung zu untersuchen und bessere Datenquellen und -strukturen zu identifizieren. In dieser Fallstudie haben Sie die Möglichkeit, anhand eines Beispiels zu sehen, wie das BI-Team arbeitetDeloitteDie Optimierung wurde durchgeführt, als sie feststellten, dass die Abfrage ihrer aktuellen Datenbank für Benutzer schwierig war.

Deloitte-Logo

Firmenhintergrund

Deloitte arbeitet mit unabhängigen Unternehmen zusammen, um ausgewählten Kunden Prüfungs- und Assurance-, Beratungs-, Risiko- und Finanzberatungs-, Risikomanagement-, Steuer- und damit verbundene Dienstleistungen anzubieten. Die Markenvision von Deloitte besteht darin, ein Maßstab für Exzellenz in der Branche zu sein und ihre Markenwerte aufrechtzuerhalten, während sie führende Strategien und modernste Tools für Kunden entwickeln, um ihr Geschäft zu erleichtern. Zu diesen Werten gehören Integrität, die Bereitstellung eines herausragenden Mehrwerts für Kunden, Engagement für die Gemeinschaft und Stärke durch kulturelle Vielfalt.

Die Herausforderung

Aufgrund der Größe des Unternehmens und seines sich ständig weiterentwickelnden Datenbedarfs wuchs und veränderte sich die Datenbank, um aktuellen Problemen gerecht zu werden, ohne Zeit für die Betrachtung der langfristigen Leistung zu haben. Aus diesem Grund wuchs die Datenbank schließlich zu einer Sammlung nicht verwalteter Tabellen ohne eindeutige Verknüpfungen oder konsistente Formatierung. Dies machte es schwierig, die Daten abzufragen und in Informationen umzuwandeln, die eine wirksame Entscheidungsfindung ermöglichen könnten. 

Der Optimierungsbedarf zeigte sich nach und nach, da das Team die Daten kontinuierlich verfolgen und die Gültigkeit der Daten wiederholt testen und nachweisen musste. Mit einer neu optimierten Datenbank könnten die Daten leichter verstanden, vertrauenswürdiger und für effektive Geschäftsentscheidungen genutzt werden.

In erster Linie enthielt diese Datenbank Marketing- und Finanzdaten, die idealerweise zur Verbindung von Marketingkampagnen und Vertriebskontakten verwendet werden sollten, um zu bewerten, welche Kampagnen erfolgreich waren. Aufgrund des aktuellen Stands der Datenbank gab es jedoch keine eindeutige Möglichkeit, Erfolge bestimmten Marketingkampagnen zuzuordnen und deren finanzielle Leistung zu bewerten. Die größte Herausforderung bei dieser Initiative bestand darin, die externen Datenquellen so zu programmieren, dass sie Daten direkt in die neue Datenbank einspeisen und nicht in die vorherigen Tabellen, deren veraltete Tabelle geplant war. Darüber hinaus musste das Datenbankdesign Tabellen berücksichtigen, die den Lebenszyklus der Daten darstellen und mit Verknüpfungen ausgestattet sind, die verschiedene Datenabfragen und -anforderungen einfach und logisch unterstützen können.

Die Vorgehensweise

Aufgrund des Umfangs des Projekts und der spezifischen Anforderungen der Organisation beschloss das BI-Team, ein eigenes Datenbanksystem zu entwerfen, das es in der gesamten Organisation implementieren konnte. Auf diese Weise würde die Architektur der Datenbank ihre Datenanforderungen wirklich erfassen und Tabellen sorgfältig verbinden, sodass sie einfacher abzufragen und zu verwenden wären.

Das Team wollte beispielsweise in der Lage sein, die anfängliche Schätzung des finanziellen Erfolgs einer Marketingkampagne einfach mit ihrem Endwert in Verbindung zu bringen und herauszufinden, wie gut interne Prozesse den Erfolg einer Kampagne vorhersagen können. Die Steigerungen gegenüber der ursprünglichen Schätzung waren gut, aber wenn die Schätzungen häufig viel höher ausfielen als die tatsächlichen Ergebnisse, könnte dies auf ein Problem mit den zur Entwicklung dieser Schätzungen verwendeten Tools hinweisen. Im aktuellen Zustand der Datenbank gab es jedoch Dutzende von Tabellen in allen Buchhaltungsgruppen, die Zugriffsprobleme verursachten, die die Gewinnung dieser Erkenntnisse verhinderten. Außerdem gab es zwischen den verschiedenen Buchhaltungsgruppen viele Überschneidungen, die das Team für eine langfristigere Nutzung besser strukturieren wollte.

Um diese Ziele zu erreichen, entwickelte das Team eine Strategie für die Architektur, entwickelte Prüfpunkte, um festzustellen, ob die erforderliche Funktionalität entwickelt und schließlich skaliert werden konnte, und erstellte ein iteratives System, in dem regelmäßige Aktualisierungen des Datenbanksystems vorgenommen werden konnten, um es in Zukunft weiter zu verfeinern.

Um das Datenbankoptimierungsprojekt als Erfolg zu betrachten, wollte das BI-Team die folgenden Probleme angehen:

  • Wurden die notwendigen Tabellen und Spalten sinnvoller konsolidiert?

  • Entsprachen das neue Schema und die neuen Schlüssel den Anforderungen der Analystenteams?

  • Welche Tabellen wurden wiederholt abgefragt und waren sie zugänglich und logisch?

  • Welche Beispielabfragen könnten das Vertrauen der Benutzer in das System stärken?

In das Optimierungsprojekt mussten eine Vielzahl von Partnern und Stakeholdern einbezogen werden, da so viele Benutzer im gesamten Unternehmen betroffen wären. Die Datenbankadministratoren und -ingenieure, die mit dem BI-Team zusammenarbeiteten, waren für dieses Projekt besonders wichtig, da sie den Entwurf und die Erstellung der Datenbank leiteten, den Lebenszyklus der Daten während ihrer Reifung und Veränderung im Laufe der Zeit abbildeten und diesen als Rahmen für die Erstellung einer Datenbank nutzten logisches Datenflussdesign.

Anschließend führten diese Ingenieure Interviews mit verschiedenen Interessengruppen, um die Geschäftsanforderungen für Teams im gesamten Unternehmen zu verstehen, schulten ein Team von Analysten für das neue System und stellten die alten Tabellen, die nicht funktionierten, außer Dienst.

Die Ergebnisse

Das BI-Team von Deloitte erkannte, dass die Datenbank zwar kontinuierlich aktualisiert wurde, um den sich ändernden Geschäftsanforderungen gerecht zu werden, dass die Verwaltung jedoch mit der Zeit immer schwieriger geworden war. Um eine höhere Datenbankleistung zu fördern und sicherzustellen, dass die Datenbank ihre Anforderungen erfüllt, arbeitete das BI-Team mit Datenbankingenieuren und Administratoren zusammen, um eine benutzerdefinierte Datenbankarchitektur zu entwerfen, die sorgfältig auf die Geschäftsanforderungen des Unternehmens eingeht. Die neue Datenbankstruktur half beispielsweise beim Aufbau von Verbindungen zwischen Tabellen, die Marketingkampagnen im Zeitverlauf und deren Erfolge verfolgen, einschließlich Umsatzdaten und regionaler Standorte.

Diese Bemühungen zur Datenbankoptimierung hatten viele Vorteile. Der größte Vorteil bestand darin, dass das Unternehmen seinen Daten vertrauen konnte – das Analystenteam musste nicht so viel Zeit mit der Validierung der Daten vor der Verwendung verbringen, da die Tabellen nun logischer organisiert und verknüpft waren. Die neue Architektur förderte auch einfachere Abfragen. Anstatt Hunderte Zeilen komplizierten Codes schreiben zu müssen, um einfache Antworten zurückzugeben, wurde die neue Datenbank für einfachere, kürzere Abfragen optimiert, deren Ausführung weniger Zeit in Anspruch nahm.

Dies bot den Teams im gesamten Unternehmen Vorteile:

  • Das Marketingteam konnte ein besseres Feedback zum Mehrwert bestimmter Kampagnen erhalten.

  • Das Vertriebsteam könnte auf spezifische Informationen über seine Regionen und Territorien zugreifen und so Einblicke in mögliche Schwachstellen und Expansionsmöglichkeiten erhalten.

  • Das Strategieteam konnte die Lücke zwischen den Marketing- und Vertriebsteams schließen und letztendlich umsetzbare OKRs (Objectives and Key Results) für die Zukunft erstellen.

Wie Sie jedoch erfahren haben, ist die Datenbankoptimierung ein iterativer Prozess. Die Arbeit des BI-Teams endete nicht mit der Implementierung des neuen Datenbankdesigns. Sie haben außerdem ein Team benannt, das die Datenverwaltung überwacht, um die Qualität der Daten sicherzustellen und zu verhindern, dass dieselben Probleme erneut auftreten. Auf diese Weise bleiben die Daten organisiert und auch dieses Team kann die entwickelten Datenbanken basierend auf sich entwickelnden Geschäftsanforderungen weiter verfeinern.

Abschluss

Die Datenbanken, in denen Ihr Unternehmen seine Daten speichert, sind ein wichtiger Bestandteil der von Ihnen erstellten BI-Prozesse und -Tools. Wenn die Datenbank nicht gut funktioniert, wirkt sich das auf Ihr gesamtes Unternehmen aus und macht es schwieriger, Stakeholder mit den benötigten Daten zu versorgen Treffen Sie intelligente Geschäftsentscheidungen. Die Optimierung Ihrer Datenbank fördert eine hohe Leistung und ein besseres Benutzererlebnis für alle Mitglieder Ihres Teams.

Die fünf Faktoren in Aktion

Video 64

Zuvor haben wir etwas über die fünf Faktoren der Datenbankleistung gelernt: Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Doch wie funktionieren sie eigentlich innerhalb eines funktionierenden Systems? Lassen Sie uns eine Datenbank untersuchen und sehen, wie sich die fünf Faktoren auf ihre Leistung auswirken. Bevor wir näher darauf eingehen, wie die fünf Faktoren diese Datenbank beeinflussen, wollen wir zunächst verstehen, wie sie gestaltet ist. In diesem Beispiel schauen wir uns ein Kinokettensystem an. Es gibt einige Dinge, die wir bei der Optimierung berücksichtigen müssen. Lassen Sie uns zunächst darüber nachdenken, wofür diese Datenbank verwendet wird. In diesem Fall verwendet die Kinokette Daten zu Ticketkäufen, Einnahmen und Publikumspräferenzen, um Entscheidungen darüber zu treffen, welche Filme gezeigt werden und welche Werbeaktionen möglich sind. Zweitens überlegen wir, woher die Daten kommen. In diesem Beispiel wird es aus mehreren Quellen in ein OLAP-System übertragen, wo die Analyse stattfindet. Außerdem nutzt die Datenbank Daten aus OLTP-Systemen einzelner Kinos, um Trends und Ticketverkäufe für verschiedene Kinozeiten und Genres zu untersuchen. Die OLTP-Systeme, die Transaktionsdaten verwalten, verwenden das Snowflake-Datenbankmodell. In der Mitte befindet sich eine Faktentabelle, in der die wichtigsten Informationen zu den Tickets erfasst sind, z. B. ob ein bestimmter Sitzplatz reserviert wurde oder nicht, die Reservierungsart und die Screening-ID. Die Mitarbeiter-ID desjenigen, der die Reservierung eingegeben hat, und die Sitzplatznummer. Um Details zu diesen Fakten zu erfassen, enthält das Modell außerdem mehrere mit der Faktentabelle verbundene Dimensionstabellen mit Informationen zu Mitarbeiter, Film, Vorführung, Zuschauerraum, Sitzplatz und Reservierung. Diese Datenbank ist ziemlich einfach und ermöglicht es jedem Kino, Daten in diesen verschiedenen Tabellen zu erfassen und verhindert, dass versehentlich derselbe Sitzplatz zweimal gebucht wird. Allerdings sind diese einzelnen OLTP-Systeme nicht für die Analyse konzipiert, weshalb die Daten in das Ziel-OLAP-System gezogen werden müssen. Dort können Benutzer darauf zugreifen und sie erkunden, um Erkenntnisse zu gewinnen und Geschäftsentscheidungen zu treffen. Okay, jetzt, da wir etwas mehr über unsere Datenbank wissen, wollen wir herausfinden, wie die fünf Faktoren der Datenbankleistung sie beeinflussen. Wie Sie wissen, ist die Arbeitslast eine Kombination aus Transaktionen, Abfragen, Data-Warehousing-Analysen und Systembefehlen, die zu einem bestimmten Zeitpunkt vom Datenbanksystem verarbeitet werden. In diesem Fall besteht der größte Teil der Arbeitslast aus der Verarbeitung von Benutzeranfragen, beispielsweise der Erstellung geplanter Berichte oder der Bearbeitung von Abfragen. Wenn die Datenbank die Arbeitslast nicht bewältigen kann, kann es zu einem Systemabsturz kommen, der den Zugriff und die Nutzung der Daten durch den Benutzer beeinträchtigt. Möglicherweise erfordert die Berichterstellung viele Ressourcen, oder es gibt eine wachsende Zahl von Analysten, die auf diese Daten zugreifen. Wir wissen jedoch, dass es oft möglich ist, Spitzenzeiten bei der Arbeitsbelastung vorherzusagen. So können wir Anpassungen vornehmen, um sicherzustellen, dass das System diese Anfragen verarbeiten kann. Lassen Sie uns nun den Durchsatz untersuchen. Auch hier handelt es sich um die Gesamtfähigkeit der Hardware und Software der Datenbank, Anfragen zu verarbeiten. Da sich unser Kinosystem hauptsächlich auf die Analyse von Daten aus OLTP-Datenbanken konzentriert, arbeiteten wir mit einer OLAP-Datenbank, die hauptsächlich Cloud-Speicher nutzt. Die Datenbankspeicherprozesse und die Computer innerhalb des Systems greifen auf die Cloud-Daten zu. Sie müssen in der Lage sein, die Arbeitsbelastung des Theaters zu bewältigen, insbesondere wenn das Datenbanksystem häufig genutzt wird. Die Hardware und Software, die den Durchsatz des Systems ausmachen, sind die Ressourcen. Beispielsweise könnten Kinos eine Cache-Controller-Disk verwenden, um die Datenbank bei der Verwaltung der Speicherung und des Abrufs von Daten aus den Speichersystemen zu unterstützen. Als nächstes kommt die Optimierung, über die Sie bereits viel gelernt haben. Im Idealfall sollten Benutzer auf Transaktionsdaten zugreifen können, die von mehreren anderen Datenbanksystemen erfasst wurden. Wenn sich der Abruf verlangsamt, kann es länger dauern, die Daten abzurufen und den Stakeholdern Erkenntnisse zu liefern. Deshalb ist es wichtig, die Datenbank auch nach der Einrichtung optimal zu halten. Der letzte Faktor, die Datenbankleistung, ist umstritten. Das Kinounternehmen verfügt über ein Team mit vielen verschiedenen Analysten, die auf diese Daten zugreifen und diese verwenden. Dies gilt zusätzlich zu den automatisierten Transformationen, die auf die Daten angewendet und die Berichte generiert werden. Alle diese Anfragen können miteinander konkurrieren und zu Konflikten führen. Und dies kann möglicherweise problematisch sein, wenn das System mehrere Anfragen gleichzeitig verarbeitet und im Wesentlichen immer wieder dieselben Aktualisierungen durchführt. Um dies einzuschränken, verarbeitet die Datenbank Abfragen und legt die Reihenfolge fest, in der die Anforderungen gestellt werden. Und jetzt haben Sie die Gelegenheit zu erkunden, wie sich die fünf Faktoren der Datenbankleistung auf ein echtes Datenbanksystem auswirken können. Egal wie einfach oder komplex, dies sind wesentliche Überlegungen für jeden BI-Beruf.

Bestimmen Sie die effizienteste Abfrage

Bisher haben Sie die Faktoren kennengelernt, die die Datenbankleistung und die Optimierung von Datenbankabfragen beeinflussen. Dies ist ein wichtiger Teil der Arbeit eines BI-Experten, da er so sicherstellen kann, dass die von seinem Team verwendeten Tools und Systeme so effizient wie möglich sind. Da Sie nun mit diesen Konzepten besser vertraut sind, sehen Sie sich ein Beispiel an. 

Das Szenario

Francisco’s Electronics hat kürzlich seine Home-Office-Produktlinie auf seiner E-Commerce-Website eingeführt. Nachdem sie eine positive Resonanz von den Kunden erhalten hatten, entschieden sich die Entscheidungsträger des Unternehmens, den Rest ihrer Produkte auf der Website hinzuzufügen. Seit ihrer Einführung wurden mehr als 10.000.000 Exemplare verkauft. Das ist zwar großartig für das Unternehmen, aber ein derart umfangreicher Katalog an Verkaufsunterlagen hat sich auf die Geschwindigkeit der Datenbank ausgewirkt. Der Vertriebsleiter Ed wollte eine Abfrage nach der Anzahl der nach dem 1. November 2021 getätigten Verkäufe in der Kategorie „Elektronik“ durchführen, konnte dies jedoch nicht, da die Datenbank zu langsam war. Er bat Xavier, einen BI-Analysten, mit der Datenbank zu arbeiten und eine Abfrage zu optimieren, um die Erstellung des Verkaufsberichts zu beschleunigen.

Zunächst untersuchte Xavier das unten gezeigte Datenbankschema „ sales_warehouse“ . Das Schema enthält verschiedene Symbole und Konnektoren, die zwei wichtige Informationen darstellen: die Haupttabellen innerhalb des Systems und die Beziehungen zwischen diesen Tabellen.

Das sales_warehouse-Datenbankschema. Die Tabelle „Verkäufe“ stellt eine Verbindung zu den Tabellen „Produkte“, „Benutzer“, „Standorte“ und „Bestellungen“ her.

Das Datenbankschema „ sales_warehouse“ enthält fünf Tabellen – „Sales“, „Products“, „Users“, „Locations“ und „Orders“ –, die über Schlüssel verbunden sind. Die Tabellen enthalten fünf bis acht Spalten (oder Attribute) unterschiedlicher Datentypen. Zu den Datentypen gehören Varchar oder Char (oder Zeichen), Ganzzahl, Dezimalzahl, Datum, Text (oder Zeichenfolge), Zeitstempel und Bit.

Die Fremdschlüssel in der Sales-Tabelle sind mit jeder der anderen Tabellen verknüpft. Der Fremdschlüssel „product_id“ ist mit der Tabelle „Products“ verknüpft, der Fremdschlüssel „user_id“ ist mit der Tabelle „Users“ verknüpft, der Fremdschlüssel „order_id“ ist mit der Tabelle „Orders“ verknüpft und die Fremdschlüssel „shipping_address_id“ und „billing_address_id“ sind mit der Tabelle verknüpft Standorttabelle.

Untersuchen der SQL-Abfrage

Nach Prüfung der Details stellte Xavier fest, dass die folgende Anfrage optimiert werden musste:

Optimierung der Abfrage

Um diese Abfrage effizienter zu gestalten, prüfte Xavier zunächst, ob die Felder „Datum“ und „Kategorie“ indiziert waren. Er tat dies, indem er die folgenden Abfragen ausführte:

Ohne Indizes in den für Abfragebeschränkungen verwendeten Spalten führte die Engine einen vollständigen Tabellenscan durch, der alle mehreren Millionen Datensätze verarbeitete und überprüfte, welche das Datum >= „2021-11-01“ und die Kategorie = „Elektronik“ hatten. 

Anschließend indizierte er das Feld „Datum“ in der Tabelle „Verkäufe“ und das Feld „Kategorie“ in der Tabelle „Produkte“ mithilfe des folgenden SQL-Codes:

 

Leider war die Abfrage auch nach dem Hinzufügen der Indizes immer noch langsam. Unter der Annahme, dass nach dem „01.11.2021“ nur ein paar Tausend Verkäufe getätigt wurden, erstellte die Abfrage immer noch eine sehr große virtuelle Tabelle (die Verkäufe und Produkte verbindet). Es verfügte über Millionen von Datensätzen, bevor Verkäufe mit einem Datum nach dem „01.11.2021“ und Verkäufe mit Produkten in der Kategorie „Elektronik“ herausgefiltert wurden. Dies führte zu einer ineffizienten und langsamen Abfrage.

Um die Abfrage schneller und effizienter zu gestalten, hat Xavier sie so geändert, dass zunächst die Verkäufe herausgefiltert werden, deren Datum nach dem „01.11.2021“ liegt. Die Abfrage „( SELECT product_id FROM Sales WHERE date > ‚2021-11-01‘) AS oi“ lieferte nur ein paar tausend Datensätze und nicht Millionen von Datensätzen. Anschließend verknüpfte er diese Datensätze mit der Tabelle „Products“. 

Xaviers letzte optimierte Abfrage war:

 

Die zentralen Thesen

Durch die Optimierung von Abfragen werden Ihre Pipeline-Abläufe schneller und effizienter. In Ihrer Rolle als BI-Experte arbeiten Sie möglicherweise an Projekten mit extrem großen Datenmengen. Für diese Projekte ist es wichtig, SQL-Abfragen so schnell und effizient wie möglich zu schreiben. Andernfalls könnten Ihre Datenpipelines langsam und schwierig zu handhaben sein.

Einpacken

Video 65

Sie haben etwas über Datenbankdesign und die Rolle von BI-Experten bei der Erstellung und Wartung nützlicher Datenbanksysteme gelernt. Bisher konzentrieren Sie sich auf die fünf Faktoren der Datenbankleistung; Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikte. Außerdem lernen Sie einige Strategien speziell für die Datenbankoptimierung kennen und erfahren, auf welche Probleme Sie achten sollten, wenn Ihre Teammitglieder eine Verlangsamung bemerken. Sie haben sogar untersucht, wie sich die fünf Faktoren auf tatsächliche Datenbanken, die Datenbankoptimierung und die Bedeutung der Aktualisierung der Datenbanken auswirken können. Als BI-Experte ist die Entwicklung von Prozessen, die es Ihrem Team ermöglichen, selbst Erkenntnisse zu gewinnen, ein wichtiger Teil Ihrer Aufgabe. Doch Systeme und Prozesse ändern sich mit der Zeit, sie funktionieren nicht mehr oder müssen aktualisiert werden. Dies ist einer der Gründe, warum die kontinuierliche Überwachung der Datenbankleistung so wichtig ist. Das Datenbanksystem sollte eine dauerhaft hohe Leistungsfähigkeit aufweisen. In Kürze erfahren Sie mehr über die Optimierung von Systemen und die Tools, die Sie als BI-Experte erstellen. Aber zuerst gibt es noch eine weitere wöchentliche Herausforderung. Schauen Sie sich wie immer das gesamte Material noch einmal durch und werfen Sie einen Blick auf das Glossar, um sich auf den Erfolg vorzubereiten. Sobald Sie Ihre Bewertung abgeschlossen haben, treffe ich Sie hier wieder, um mehr über die Optimierung von ETL-Prozessen zu erfahren. Gut gemacht.

Glossarbegriffe aus Modul 2

Konflikt: Wenn zwei oder mehr Komponenten versuchen, eine einzelne Ressource auf widersprüchliche Weise zu nutzen

Datenpartitionierung: Der Prozess der Aufteilung einer Datenbank in verschiedene, logische Teile, um die Abfrageverarbeitung zu verbessern und die Verwaltbarkeit zu erhöhen

Datenbankleistung: Ein Maß für die Arbeitslast, die von einer Datenbank verarbeitet werden kann, sowie die damit verbundenen Kosten

ELT (Extrahieren, Laden und Transformieren): Eine Art Datenpipeline, die es ermöglicht, Daten aus Data Lakes zu sammeln, in ein einheitliches Zielsystem zu laden und in ein nützliches Format umzuwandeln 

Fragmentierte Daten: Daten, die in viele Teile zerlegt sind, die nicht zusammen gespeichert werden, häufig aufgrund der häufigen Verwendung der Daten oder des Erstellens, Löschens oder Änderns von Dateien

Index: Ein organisatorisches Tag, das zum schnellen Auffinden von Daten in einem Datenbanksystem verwendet wird

Optimierung: Maximierung der Geschwindigkeit und Effizienz beim Datenabruf, um eine hohe Datenbankleistung sicherzustellen

Abfrageplan: Eine Beschreibung der Schritte, die ein Datenbanksystem durchführt, um eine Abfrage auszuführen

Ressourcen: Die zur Verwendung in einem Datenbanksystem verfügbaren Hardware- und Softwaretools

Themenorientiert: Mit bestimmten Bereichen oder Abteilungen eines Unternehmens verbunden

Durchsatz: Die Gesamtfähigkeit der Hardware und Software der Datenbank, Anfragen zu verarbeiten

Arbeitslast: Die Kombination aus Transaktionen, Abfragen, Data-Warehousing-Analysen und Systembefehlen, die zu einem bestimmten Zeitpunkt vom Datenbanksystem verarbeitet werden

 

Begriffe und Definitionen aus früheren Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

Attribut: In einem dimensionalen Modell ein Merkmal oder eine Qualität, die zur Beschreibung einer Dimension verwendet wird

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholdern die Möglichkeit zu geben, wirkungsvolle Geschäftsentscheidungen zu treffen

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Unternehmensdaten bestimmen, nämlich Erfassung, Analyse und Überwachung

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

C

Spaltendatenbank: Eine Datenbank, die nach Spalten statt nach Zeilen organisiert ist

Kombinierte Systeme: Datenbanksysteme, die Daten am selben Ort speichern und analysieren

Kompilierte Programmiersprache: Eine Programmiersprache, die codierte Anweisungen kompiliert, die direkt vom Zielcomputer ausgeführt werden

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Datenverfügbarkeit: Der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus

Data Lake: Ein Datenbanksystem, das große Mengen an Rohdaten im Originalformat speichert, bis sie benötigt werden

Data Mart: Eine themenorientierte Datenbank, die eine Teilmenge eines größeren Data Warehouse sein kann

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können

Data Warehouse: Ein spezifischer Datenbanktyp, der Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

Datenbankmigration: Verschieben von Daten von einer Quellplattform in eine andere Zieldatenbank

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

Dimension (Datenmodellierung): Eine Information, die mehr Details und Kontext zu einer Tatsache liefert

Dimensionstabelle: Die Tabelle, in der die Attribute der Dimensionen eines Fakts gespeichert werden

Entwurfsmuster: Eine Lösung, die relevante Kennzahlen und Fakten verwendet, um ein Modell zur Unterstützung der Geschäftsanforderungen zu erstellen

Dimensionsmodell: Eine Art relationales Modell, das für den schnellen Abruf von Daten aus einem Data Warehouse optimiert wurde

Verteilte Datenbank: Eine Sammlung von Datensystemen, die über mehrere physische Standorte verteilt sind

UND

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

Erfahrungsbasiertes Lernen: Verstehen durch Handeln

F

Fakt: In einem dimensionalen Modell eine Messung oder Metrik

Faktentabelle: Eine Tabelle, die Messungen oder Metriken im Zusammenhang mit einem bestimmten Ereignis enthält

Fremdschlüssel: Ein Feld innerhalb einer Datenbanktabelle, das ein Primärschlüssel in einer anderen Tabelle ist (siehe Primärschlüssel)

Funktionale Programmiersprache: Eine Programmiersprache, die auf Funktionen basiert

G

Google DataFlow: Ein serverloser Datenverarbeitungsdienst, der Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt

ICH

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Interpretierte Programmiersprache: Eine Programmiersprache, die einen Interpreter, normalerweise ein anderes Programm, verwendet, um codierte Anweisungen zu lesen und auszuführen

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

L

Logische Datenmodellierung: Darstellung verschiedener Tabellen im physischen Datenmodell

M

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

Ö

Objektorientierte Programmiersprache: Eine Programmiersprache, die auf Datenobjekten basiert

OLAP-System (Online Analytical Processing): Ein Tool, das neben der Verarbeitung auch für die Analyse optimiert wurde und Daten aus mehreren Datenbanken analysieren kann

OLTP-Datenbank (Online Transaction Processing): Ein Datenbanktyp, der für die Datenverarbeitung statt für die Analyse optimiert wurde

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Primärschlüssel: Ein Bezeichner in einer Datenbank, der auf eine Spalte oder eine Gruppe von Spalten verweist, in der jede Zeile jeden Datensatz in der Tabelle eindeutig identifiziert (siehe Fremdschlüssel).

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

Python: Eine universelle Programmiersprache

R

Antwortzeit: Die Zeit, die eine Datenbank benötigt, um eine Benutzeranfrage abzuschließen

Zeilenbasierte Datenbank: Eine Datenbank, die nach Zeilen organisiert ist

S

Getrennte Speicher- und Computersysteme: Datenbanken, in denen Daten remote gespeichert werden und relevante Daten lokal zur Analyse gespeichert werden

Single-Homed-Datenbank: Datenbank, in der alle Daten am selben physischen Ort gespeichert sind

Schneeflockenschema: Eine Erweiterung eines Sternschemas mit zusätzlichen Dimensionen und häufig auch Unterdimensionen

Sternschema: Ein Schema, das aus einer Faktentabelle besteht, die auf eine beliebige Anzahl von Dimensionstabellen verweist

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

T

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

Zieltabelle: Der vorgegebene Ort, an den Pipeline-Daten gesendet werden, damit darauf reagiert werden kann

Übertragbare Fähigkeit: Eine Fähigkeit oder Kompetenz, die von einem Job auf einen anderen übertragen werden kann

IN

Vanity-Metrik: Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können

Willkommen zu Modul 3

Video 66

Sie haben viel darüber gelernt, wie BI-Experten sicherstellen, dass die Datenbanksysteme und Tools ihrer Organisationen weiterhin so nützlich wie möglich sind. Dazu gehört die Bewertung, ob Korrekturen oder Updates erforderlich sind, und die Durchführung von Optimierungen bei Bedarf. Zuvor haben wir uns speziell auf die Optimierung von Datenbanksystemen konzentriert. Jetzt ist es an der Zeit, die Optimierung von Pipelines und ETL-Prozessen zu untersuchen. In diesem Abschnitt des Kurses erfahren Sie mehr über ETL-Qualitätstests, Datenschemavalidierung, Überprüfung von Geschäftsregeln und allgemeine Leistungstests. Durch ETL-Qualitätstests möchten BI-Experten bestätigen, dass Daten ohne Fehler oder Probleme extrahiert, transformiert und an ihren Zielort geladen werden. Dies ist besonders wichtig, da Ihre Pipeline manchmal schlechte oder irreführende Ergebnisse liefert. Dies kann passieren, wenn die Originalquellen ohne Ihr Wissen geändert werden. Außerdem werden wir uns bald mit der Datenschemavalidierung befassen, die dazu dient, die Quelldaten mit dem Zieldatenbankschema in Einklang zu bringen. Eine Schemainkongruenz kann zu Systemausfällen führen. Dies ist entscheidend für den reibungslosen Betrieb des ETL. Wir untersuchen auch die Datenintegrität und wie integrierte Qualitätsprüfungen potenzielle Probleme abwehren. Abschließend konzentrieren wir uns auf die Überprüfung von Geschäftsregeln und allgemeinen Leistungstests, um sicherzustellen, dass die Pipeline die Geschäftsanforderungen erfüllt, für die sie gedacht war. Es kommt noch viel. Beginnen wir also mit der Erkundung der Optimierungsprozesse für Pipelines und ETL.

Die Bedeutung von Qualitätsprüfungen

Video 67

Sie sind bereits mit ETL-Pipelines vertraut, bei denen Daten aus einer Quelle extrahiert, beim Verschieben transformiert und dann in eine Zieltabelle geladen werden, wo sie verarbeitet werden können. Ein Teil des Transformationsschritts im ETL-Prozess ist die Qualitätsprüfung. Im BI ist Qualitätstest ein Prozess, bei dem Daten auf Fehler überprüft werden, um Systemausfälle zu verhindern. Ziel ist es, sicherzustellen, dass die Pipeline weiterhin ordnungsgemäß funktioniert. Qualitätstests können zeitaufwändig sein, sind aber für den Arbeitsablauf eines Unternehmens äußerst wichtig. Qualitätstests umfassen sieben Validierungselemente: Vollständigkeit, Konsistenz, Konformität, Genauigkeit, Redundanz, Integrität und Aktualität. Das sind viele Elemente, die es zu beachten gilt, aber wir werden sie in diesem Video einzeln aufschlüsseln, beginnend mit der Vollständigkeit. Möglicherweise erinnern Sie sich auch an einige dieser Konzepte aus dem Google Data Analytics-Zertifikat. Wenn Sie möchten, nehmen Sie sich ein paar Minuten Zeit, um den Inhalt durchzugehen, bevor Sie fortfahren. Beginnen wir mit der Prüfung auf Vollständigkeit. Dabei muss bestätigt werden, dass die Daten alle gewünschten Komponenten oder Maßnahmen enthalten. Stellen Sie sich beispielsweise vor, Sie arbeiten mit Verkaufsdaten und verfügen über eine ETL-Pipeline, die monatliche Daten an Zieltabellen liefert. Diese Zieltabellen werden verwendet, um Berichte für Stakeholder zu erstellen. Wenn den Daten, die durch die Pipeline verschoben werden, eine Woche lang Daten oder Informationen zu einem der meistverkauften Produkte oder eine andere wichtige Kennzahl fehlen, werden die zur Erstellung von Berichten verwendeten Berechnungen nicht über vollständig genaue Daten verfügen. Als nächstes haben wir Konsistenz. Sie haben vielleicht gelernt, dass sich Konsistenz im Datenanalysekontext mit dem Grad befasst, in dem Daten von verschiedenen Eingabe- oder Erfassungspunkten aus wiederholbar sind. Bei BI ist das etwas anders. Hier geht es bei der Konsistenz um die Bestätigung, dass die Daten kompatibel sind und über alle Systeme hinweg übereinstimmen. Stellen Sie sich zwei Systeme vor: eines ist eine HR-Datenbank mit Mitarbeiterdaten und das andere ist ein Gehaltsabrechnungssystem. Wenn in der HR-Datenbank ein Mitarbeiter aufgeführt ist, der entweder nicht im Gehaltsabrechnungssystem aufgeführt ist oder dort anders aufgeführt ist, kann diese Inkonsistenz zu Problemen führen. Als nächstes kommt die Konformität. Bei diesem Element geht es darum, ob die Daten in das erforderliche Zielformat passen. Berücksichtigen Sie Verkaufsdaten in einer ETL-Pipeline. Wenn die extrahierten Daten Verkaufsdaten enthalten, die nicht mit den Daten übereinstimmen, die in der Zieltabelle enthalten sein sollen, führt dies zu Fehlern. Nun kommt es bei der Genauigkeit darauf an, dass die Daten mit der tatsächlich gemessenen oder beschriebenen Entität übereinstimmen. Eine andere Möglichkeit, darüber nachzudenken, wäre, wenn die Daten reale Werte darstellen. Vor diesem Hintergrund sind etwaige Tippfehler oder Fehler aus der Quelle problematisch, da sie sich im Ziel widerspiegeln. Bei Quellsystemen, die viele manuelle Dateneingaben erfordern, ist die Wahrscheinlichkeit größer, dass es Probleme mit der Genauigkeit gibt. Wenn der Kauf eines Hamburgers fälschlicherweise als Verkaufspreis für eine Million Dollar eingetragen wurde, müssen Sie sich darum kümmern, bevor die Daten geladen werden. Wenn Sie eine relationale Speicherdatenbank verwenden, ist die Sicherstellung, dass die Daten keine Redundanz aufweisen, ein weiteres wichtiges Element der Qualitätsprüfung. Im BI-Kontext bedeutet Redundanz das Verschieben, Transformieren oder Speichern von mehr als den erforderlichen Daten. Dies geschieht, wenn dieselben Daten an zwei oder mehr Orten gespeichert werden. Das Verschieben von Daten durch eine Pipeline erfordert Rechenleistung, Zeit und Ressourcen. Es ist wichtig, nicht mehr Daten zu verschieben, als Sie benötigen. Wenn beispielsweise die Namen von Kundenfirmen an mehreren Stellen aufgeführt sind, aber nur an einer Stelle in der Zieltabelle erscheinen müssen, möchten wir keine Ressourcen für das Laden dieser redundanten Daten verschwenden. Jetzt kommen wir zur Integrität. Integrität betrifft die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus. Bei Qualitätstests bedeutet dies oft, dass in den Datenwerten nach fehlenden Beziehungen gesucht wird. Angenommen, die Vertriebsdatenbank eines Unternehmens ist relational. BI-Experten sind auf diese Beziehungen angewiesen, um Daten innerhalb der Datenbank zu manipulieren und die Daten abzufragen. Möglicherweise verfügen sie über Produkt-IDs und Beschreibungen in einer Datenbank. Wenn jedoch eine Beschreibung und kein entsprechender Datensatz mit der ID vorhanden ist, liegt jetzt ein Problem mit der Datenintegrität vor. Es ist wichtig, sicherzustellen, dass dieses Problem behoben wird, bevor mit der Analyse fortgefahren wird. Die Datenzuordnung ist eine Möglichkeit, um sicherzustellen, dass die Daten aus der Quelle mit den Daten in der Zieldatenbank übereinstimmen. Mehr dazu erfahren Sie später. Aber im Grunde handelt es sich bei der Datenzuordnung um einen Prozess, bei dem Felder von einer Datenquelle mit einer anderen abgeglichen werden. Zu guter Letzt möchten Sie sicherstellen, dass Ihre Daten aktuell sind. Zur Aktualität gehört die Bestätigung, dass die Daten aktuell sind. Diese Prüfung wird speziell durchgeführt, um sicherzustellen, dass die Daten mit den neuesten Informationen aktualisiert wurden, die relevante Erkenntnisse liefern können. Wenn ein Data Warehouse beispielsweise tägliche Daten enthalten soll, aber nicht ordnungsgemäß aktualisiert wird, kann die Pipeline die neuesten Informationen nicht aufnehmen. BI-Experten sind vor allem daran interessiert, aktuelle Daten zu untersuchen, um Stakeholdern die Möglichkeit zu geben, den Überblick zu behalten höchste Einsichten. Dies ist definitiv nicht möglich, wenn die zu verschiebenden Daten bereits veraltet sind. In ETL-Qualitätstests steckt viel und es kann ein kniffliger Prozess sein, aber die Erinnerung an diese sieben Schlüsselelemente ist ein wunderbarer erster Schritt zur Erstellung hochwertiger Pipelines. In Kürze erfahren Sie noch mehr über diese Prüfungen und andere Leistungstests für ETL-Prozesse. Bis bald.

 

Sieben Elemente der Qualitätsprüfung

In diesem Teil des Kurses haben Sie die Bedeutung von Qualitätstests in Ihrem ETL-System kennengelernt. Hierbei werden Daten auf Fehler überprüft, um Systemausfällen vorzubeugen. Idealerweise sollte Ihre Pipeline über integrierte Prüfpunkte verfügen, die etwaige Fehler identifizieren, bevor sie im Zieldatenbanksystem ankommen. Diese Prüfpunkte stellen sicher, dass die eingehenden Daten bereits sauber und nützlich sind! In dieser Lektüre erhalten Sie eine Checkliste dafür, was bei Ihren ETL-Qualitätstests berücksichtigt werden sollte.

Eine Illustration eines Notizblocks und eines Bleistifts

Bei der Überprüfung der Datenqualität geht es darum, sicherzustellen, dass die Daten vertrauenswürdig sind, bevor sie ihr Ziel erreichen. Bei der Überlegung, welche Prüfungen Sie benötigen, um die Qualität Ihrer Daten auf ihrem Weg durch die Pipeline sicherzustellen, sollten Sie sieben Elemente berücksichtigen:

  • Vollständigkeit: Enthalten die Daten alle gewünschten Komponenten oder Maßnahmen?

  • Konsistenz: Sind die Daten systemübergreifend kompatibel und übereinstimmend?

  • Konformität: Passen die Daten zum erforderlichen Zielformat?

  • Genauigkeit: Entsprechen die Daten dem tatsächlich gemessenen oder beschriebenen Objekt?

  • Redundanz: Werden nur die notwendigen Daten zur Verwendung verschoben, umgewandelt und gespeichert?

  • Aktualität: Sind die Daten aktuell?

  • Integrität: Sind die Daten korrekt, vollständig, konsistent und vertrauenswürdig? (Die Integrität wird durch die zuvor genannten Qualitäten beeinflusst.) Quantitative Validierungen, einschließlich der Prüfung auf Duplikate, der Anzahl der Datensätze und der aufgelisteten Mengen, tragen dazu bei, die Integrität der Daten sicherzustellen.

Häufige Probleme

Es gibt auch einige allgemeine Probleme, vor denen Sie sich in Ihrem System schützen können, um sicherzustellen, dass die eingehenden Daten keine Fehler oder andere große Probleme in Ihrem Datenbanksystem verursachen:

  • Datenzuordnung prüfen: Stimmen die Daten aus der Quelle mit den Daten in der Zieldatenbank überein?

  • Auf Inkonsistenzen prüfen: Gibt es Inkonsistenzen zwischen Quellsystem und Zielsystem?

  • Auf ungenaue Daten prüfen: Sind die Daten korrekt und spiegeln sie das tatsächlich gemessene Objekt wider?

  • Auf doppelte Daten prüfen: Existieren diese Daten bereits im Zielsystem?

Um diese Probleme anzugehen und sicherzustellen, dass Ihre Daten alle sieben Elemente der Qualitätsprüfung erfüllen, können Sie Zwischenschritte in Ihre Pipeline einbauen, die die geladenen Daten anhand bekannter Parameter prüfen. Um beispielsweise die Aktualität der Daten sicherzustellen, können Sie einen Prüfpunkt hinzufügen, der feststellt, ob diese Daten mit dem aktuellen Datum übereinstimmen. Wenn die eingehenden Daten diese Prüfung nicht bestehen, liegt im Upstream ein Problem vor, das gemeldet werden muss. Wenn Sie diese Prüfungen in Ihrem Designprozess berücksichtigen, stellen Sie sicher, dass Ihre Pipeline qualitativ hochwertige Daten liefert und im Laufe der Zeit weniger Wartung benötigt.

Die zentralen Thesen

Eines der großartigen Dinge an BI ist, dass es uns die Werkzeuge an die Hand gibt, um bestimmte Prozesse zu automatisieren, die dabei helfen, Zeit und Ressourcen bei der Datenanalyse zu sparen – die Integration von Qualitätsprüfungen in Ihr ETL-Pipeline-System ist eine der Möglichkeiten, dies zu erreichen! Wenn Sie sicherstellen, dass Sie bereits die Vollständigkeit, Konsistenz, Konformität, Genauigkeit, Redundanz, Integrität und Aktualität der Daten berücksichtigen, wenn diese von einem System in ein anderes übertragen werden, bedeutet dies, dass Sie und Ihr Team die Daten später nicht manuell überprüfen müssen.

 

Überwachen Sie die Datenqualität mit SQL

Wie Sie gelernt haben, ist es wichtig, die Datenqualität zu überwachen. Durch die Überwachung Ihrer Daten werden Sie auf Probleme aufmerksam, die innerhalb der ETL-Pipeline und des Data Warehouse-Designs auftreten können. Dies kann Ihnen helfen, Probleme so früh wie möglich anzugehen und zukünftige Probleme zu vermeiden.

In dieser Lektüre verfolgen Sie ein fiktives Szenario, in dem ein BI-Ingenieur Qualitätstests für seine Pipeline durchführt und SQL-Abfragen vorschlägt, die man für jeden Testschritt verwenden könnte.

Das Szenario

Bei Francisco’s Electronics, einem Elektronikhersteller, entwarf ein BI-Ingenieur namens Sage ein Data Warehouse für Analysen und Berichte. Nach dem ETL-Prozessdesign erstellte Sage ein Diagramm des Schemas.

Das sales_warehouse-Datenbankschema. Die Tabelle „Verkäufe“ stellt eine Verbindung zu den Tabellen „Produkte“, „Benutzer“, „Standorte“ und „Bestellungen“ her.

Das Diagramm des Schemas der sales_warehouse- Datenbank enthält verschiedene Symbole und Konnektoren, die zwei wichtige Informationen darstellen: die Haupttabellen innerhalb des Systems und die Beziehungen zwischen diesen Tabellen.

Das Datenbankschema „sales_warehouse“ enthält fünf Tabellen:

  • Verkäufe 

  • Produkte

  • Benutzer

  • Standorte

  • Aufträge

Diese Tabellen sind über Schlüssel verbunden. Die Tabellen enthalten fünf bis acht Spalten (oder Attribute) unterschiedlicher Datentypen. Zu den Datentypen gehören Varchar oder Char (oder Zeichen), Ganzzahl, Dezimalzahl, Datum, Text (oder Zeichenfolge), Zeitstempel und Bit.

Die Fremdschlüssel in der Tabelle „Sales“ sind mit jeder der anderen Tabellen verknüpft:

  • Der Fremdschlüssel „product_id“ ist mit der Tabelle „Products“ verknüpft

  • Der Fremdschlüssel „user_id“ ist mit der Benutzertabelle verknüpft

  • Der Fremdschlüssel „order_id“ ist mit der Orders-Tabelle verknüpft 

  • Die Fremdschlüssel „shipping_address_id“ und „billing_address_id“ sind mit der Tabelle „Locations“ verknüpft

Nachdem Sage die sales_warehouse- Datenbank erstellt hatte, nahm das Entwicklungsteam Änderungen an der Vertriebsseite vor. Dadurch wurde die ursprüngliche OLTP-Datenbank geändert. Jetzt muss Sage sicherstellen, dass die ETL-Pipeline ordnungsgemäß funktioniert und dass die Warehouse-Daten mit der ursprünglichen OLTP-Datenbank übereinstimmen. 

Sage verwendete das ursprüngliche OLTP-Schema aus der Filialdatenbank , um das Lager zu entwerfen.

Das ursprüngliche Store-Datenbankschema. Die Tabelle „Verkäufe“ stellt eine Verbindung zu den Tabellen „Produkte“, „Benutzer“, „Standorte“ und „Bestellungen“ her.

Das Filialdatenbankschema enthält außerdem fünf Tabellen – Verkäufe, Produkte, Benutzer, Standorte und Bestellungen – die über Schlüssel verbunden sind. Die Tabellen enthalten vier bis acht Spalten unterschiedlicher Datentypen. Zu den Datentypen gehören Varchar oder Char, Integer, Dezimalzahl, Datum, Text, Zeitstempel, Bit, Tinyint und Datetime.

Jede Tabelle in der Geschäftsdatenbank verfügt über ein ID- Feld als Primärschlüssel. Die Datenbank enthält die folgenden Tabellen:

  • Die Verkaufstabelle enthält Preis-, Mengen- und Datumsspalten. Es verweist auf einen Benutzer, der einen Verkauf getätigt hat ( UserId ), ein Produkt gekauft hat ( ProductId ) und eine zugehörige Bestellung durchgeführt hat ( OrderId ). Außerdem verweist es auf die Tabelle „Standorte“ für Versand- und Rechnungsadressen ( ShippingAddressId bzw. BillingAddressId ).

  • Die Benutzertabelle enthält FirstName , LastName , Email , Password und andere benutzerbezogene Spalten.

  • Die Standorttabelle enthält Adressinformationen ( Address1 , Address2 , City , State und Postcode ).

  • Die Produkttabelle enthält Name , Preis , Inventarnummer und Kategorie der Produkte.

  • Die Orders- Tabelle enthält OrderNumber und Kaufinformationen ( Subtotal , ShippingFee , Tax , Total und Status ).

Mit SQL Probleme finden

Sage verglich die sales_warehouse- Datenbank mit der ursprünglichen Filialdatenbank , um Vollständigkeit, Konsistenz, Konformität, Genauigkeit, Redundanz, Integrität und Aktualität zu prüfen. Sage führte SQL-Abfragen durch, um die Daten zu untersuchen und Qualitätsprobleme zu identifizieren. Anschließend erstellte Sage die folgende Listentabelle, die die Arten der gefundenen Qualitätsprobleme, die verletzten Qualitätsstrategien, die zum Auffinden der Probleme verwendeten SQL-Codes und spezifische Beschreibungen der Probleme enthält.

Qualitätsprüfung sales_warehouse

Geprüfte Qualität

Qualitätsstrategie

SQL-Abfrage

Sages Beobachtung

Integrität

Sind die Daten korrekt, vollständig, konsistent und vertrauenswürdig?

WÄHLEN Sie * AUS Bestellungen

In der Datenbank sales_warehouse weist die Bestellung mit der ID 7 den falschen Gesamtwert auf. 

Vollständigkeit

Enthalten die Daten alle gewünschten Komponenten oder Maßnahmen?

WÄHLEN SIE COUNT(*) FROM Locations

Die Tabelle „Locations“ der Datenbank „sales_warehouse“ verfügt über eine zusätzliche Adresse. In der Filialdatenbank gibt es 60 Datensätze, während die Datenbanktabelle sales_warehouse 61 enthält.

Konsistenz

Sind die Daten systemübergreifend kompatibel und übereinstimmend?

Wählen Sie „Telefon unter Benutzern“ aus

Mehrere Benutzer in der sales_warehouse -Datenbank haben Telefone ohne das Präfix „+“.

Konformität

Passen die Daten in das erforderliche Zielformat?

WÄHLEN Sie ID und Postleitzahl AUS sales_warehouse.Locations

Die Postleitzahl des Standorts für den Datensatz mit der ID 6 in der Datenbank sales_warehouse lautet 722434213, was falsch ist. Die Postleitzahl der Vereinigten Staaten besteht entweder aus fünf Ziffern oder aus fünf Ziffern, gefolgt von einem Bindestrich (Bindestrich) und weiteren vier Ziffern (z. B. 12345-1234).

Laden für Qualitätsprüfungen

Besonderheit

Qualitätsstrategie

SQL-Abfrage

Beobachtung des Weisen

Integrität

Sind die Daten korrekt, vollständig, konsistent und vertrauenswürdig?

BESCHREIBEN Sie Benutzer

Users.Status aus der Store -Datenbank und Users.is_active aus der sales_warehouse -Datenbank scheinen verwandte Felder zu sein. Es ist jedoch nicht offensichtlich, wie die Spalte „Status“ in die boolesche Spalte „is_active“ umgewandelt wird . Ist es möglich, dass die ETL-Pipeline bei einem neuen Statuswert ausfällt?

Konsistenz

Sind die Daten systemübergreifend kompatibel und übereinstimmend?

Produkte BESCHREIBEN

Products.Inventory aus der Filialdatenbank hat den Typ varchar anstelle von int(10) im Feld Products.inventory der sales_warehouse -Datenbank . Dies kann ein Problem sein, wenn ein Wert mit Zeichen vorhanden ist.

Genauigkeit

Entsprechen die Daten dem tatsächlich gemessenen oder beschriebenen Objekt?

BESCHREIBEN Sie Verkäufe

Der Datentyp von Sales.Date in der Filialdatenbank unterscheidet sich von seinem Datentyp in sales_warehouse ( date vs. datetime ). Es stellt möglicherweise kein Problem dar, wenn die Zeit für die Faktentabelle der Datenbank  „sales_warehouse“ keine Rolle spielt.

Redundanz

Werden nur die notwendigen Daten zur Verwendung verschoben, umgewandelt und gespeichert?

BESCHREIBEN Sie Verkäufe

Die Tabelle „ Sales“ aus der Datenbank „sales_warehouse“ weist eine eindeutige Indexbeschränkung für die Spalten „OrderId “ , „ProductId“ und „UserId“ auf . Es kann dem Warehouse-Schema hinzugefügt werden.

Die zentralen Thesen

Das Testen der Datenqualität ist eine wesentliche Fähigkeit eines BI-Experten, die gute Analysen und Berichte gewährleistet. Genau wie Sage in diesem Beispiel können Sie SQL-Befehle verwenden, um BI-Datenbanken zu untersuchen und potenzielle Probleme zu finden. Je früher Sie die Probleme in Ihrem System kennen, desto eher können Sie diese beheben und Ihre Datenqualität verbessern.

Mana: Qualitätsdaten sind nützliche Daten

Video 68

Mein Name ist Mana und ich bin Senior Technical Data Program Manager bei Google. Das bedeutet, dass ich mit Geschäftspartnern zusammenarbeite und dabei helfe, Tools zu entwickeln, die es ihnen ermöglichen, anhand von Daten bessere Entscheidungen zu treffen. Ich bin ein Big-Data-Nerd, deshalb liebe ich es, mit Daten herumzuspielen und coole Dinge zu entwickeln, die die Arbeit der Leute viel einfacher machen. Es gibt ein weit verbreitetes Sprichwort: Wenn keine Daten vorhanden sind, entsteht Schmutz. Ich gehe da gerne noch einen Schritt weiter. Ich sage gerne, dass man in Ermangelung guter Daten Dreck hat. Bei Qualitätstests geht es darum, wie Sie sicherstellen, dass Sie über gute Daten verfügen. Gute Daten können verschiedene Bedeutungen haben. Oft sind es genaue Daten. Wie stellen Sie sicher, dass die Zahlen, die Sie erstellen, korrekt sind und die Wahrheit widerspiegeln? Es kann sich auch um relevante Daten handeln. Es können auch repräsentative Daten gemeint sein. Es kann auch bedeuten, dass Sie schnell auf Daten zugreifen können. Der Prozess der Qualitätskontrolle stellt sicher, dass die Tools, die Sie in Bezug auf Daten erstellen, genau, hilfreich, relevant und aktuell sind. Im Laufe des Lebenszyklus der Entwicklung eines BI-Produkts gibt es viele Momente, in denen Qualitätstests ins Spiel kommen. Wenn Sie an die sehr frühen Phasen denken, in denen möglicherweise jemand versucht, Daten aus Protokollen zu extrahieren, möchten Sie sicherstellen, dass die Daten, die Sie extrahieren, korrekt sind. Es sind dieselben Daten, die über die Protokolle eingehen, dieselben Daten, die möglicherweise aus dem Data Mart ausgespuckt werden, den ich erstelle. Die gleiche Idee gilt auch für Ihre ETL-Prozesse, wobei ETL Extrahieren, Transformieren und Laden bedeutet. Während Sie die Daten erfassen, transformieren Sie sie, massieren sie und schaffen mit diesen Daten Relevanz. Sie möchten sicherstellen, dass die Daten, die Sie eingegeben haben, dieselben sind, die Sie ausspucken. Ich erinnere mich, als ich ein junger Berufstätiger war, habe ich mir immer vorgestellt, dass ich eines Tages bei einem Unternehmen landen würde, das im Datennirwana liegt und dessen Daten so sauber und perfekt sein würden, und es war einfach magisch, ich konnte sie einfach abfragen Keine Sorge auf der Welt. Die Wahrheit ist, dass Nirvana nirgendwo existiert. Daten haben immer Probleme. Es tauchen immer wieder Bugs auf. Sogar die Daten, die Sie sich heute ansehen, können sich von den Daten, die Sie morgen betrachten, unterscheiden. Die Einbettung von Qualitätstests nicht nur als einmaliger Vorgang, sondern als regelmäßiger Prozess in Ihre Pipelines oder was auch immer Sie erstellen, ist von unglaublicher Bedeutung, da Fehler einfach passieren müssen. Es gibt ein paar Dinge, die ich zu Beginn gerne gewusst hätte. Ich wünschte, ich hätte vollständig erkennen können, wie viele Fähigkeiten ich in dieser Abteilung hatte, die aus anderen Teilen meines Lebens stammten und nicht die traditionellen Mittel für BI-Fähigkeiten waren, und dadurch mehr Selbstvertrauen in mich selbst gehabt zu haben, seit ich hierher gekommen bin mit wirklich fantastischen Fähigkeiten zum Geschichtenerzählen, die ich wirklich verbessern konnte. Auch wenn ich kein Softwareentwickler war, habe ich viel Erfahrung im Programmieren und kannte viele Best Practices, die ich umsetzen konnte. Ich würde sagen, wenn es Bereiche gibt, in denen Sie das Gefühl haben, dass Sie vielleicht nicht der Stärkste sind, wenn Sie neugierig bleiben, offen bleiben und bescheiden bleiben und Leute finden, die in diesen Bereichen wirklich großartig sind, und sie fragen: hey, wie machst du das? Seien Sie sich bewusst, dass Sie in diesen Fähigkeiten lernen und wachsen können und dass Sie kontinuierlich vielseitiger werden können. Es ist ganz normal, dass wir als Menschen unsere Stärken und Wachstumsfelder haben. Aber erfolgreich zu sein bedeutet, sie nicht von Natur aus zu haben. Es geht um die Fähigkeit, sich ständig weiterzuentwickeln und nicht zum Experten zu werden, sondern einfach besser zu werden, als man es gestern war.

Konformität von der Quelle bis zum Ziel

Video 69

Sie lernen viel über die Bedeutung von Qualitätstests und ETL und wissen jetzt, dass ein wichtiger Teil des Prozesses die Prüfung auf Konformität ist oder ob die Daten in das erforderliche Zielformat passen. Um die Konformität von der Quelle bis zum Ziel sicherzustellen, verfügen BI-Experten über drei sehr effektive Tools: Schemavalidierung, Datenwörterbücher und Datenherkunft. In diesem Video untersuchen wir, wie sie Ihnen beim Aufbau einer konsistenten Datenverwaltung helfen können. Erstens ist die Schemavalidierung ein Prozess, der sicherstellt, dass das Datenschema des Quellsystems mit dem Datenschema der Zieldatenbank übereinstimmt. Wenn die Schemata nicht übereinstimmen, kann dies, wie Sie gerade lernen, zu Systemausfällen führen, die nur sehr schwer zu beheben sind. Um diese Probleme zu vermeiden, ist es wichtig, die Schemavalidierung in Ihren Workflow zu integrieren. Datenbanktools bieten verschiedene Schemavalidierungsoptionen, mit denen eingehende Daten anhand der Anforderungen des Zielschemas überprüft werden können. Sie könnten beispielsweise vorschreiben, dass eine bestimmte Spalte nur numerische Daten enthält. Wenn Sie dann versuchen, etwas in diese Spalte einzugeben, das nicht konform ist, markiert das System den Fehler. Oder Sie könnten in einer relationalen Datenbank angeben, dass eine ID-Nummer ein eindeutiges Feld sein muss. Das bedeutet, dass dieselbe ID nicht hinzugefügt werden kann, wenn sie mit einem vorhandenen Eintrag übereinstimmt. Dadurch werden Redundanzen in den Daten vermieden. Wenn die Daten mit diesen Eigenschaften und Aktionen nicht übereinstimmen und einen Fehler auslösen, werden Sie benachrichtigt. Wenn die Daten die Anforderungen erfüllen, wissen Sie, dass sie gültig und sicher zu laden sind. Schemavalidierungseigenschaften sollten drei Dinge sicherstellen. Die Schlüssel sind nach der Transformation weiterhin gültig. Die Tabellenbeziehungen wurden beibehalten und die Konventionen sind in der gesamten Datenbank konsistent. Beginnen wir mit den Schlüsseln. Wie Sie gelernt haben, verwenden relationale Datenbanken Primär- und Fremdschlüssel, um Beziehungen zwischen Tabellen aufzubauen. Diese Tasten sollten weiterhin funktionieren, nachdem Sie Daten von einem System in ein anderes verschoben haben. Wenn Ihr Quellsystem beispielsweise „customer_id“ als Schlüssel verwendet, muss dieser gültig sein, ebenso wie das Zielschema. Dies hängt mit der nächsten Eigenschaft der Schemavalidierung zusammen, die sicherstellt, dass die Tabellenbeziehungen erhalten bleiben. Bei der Übernahme von Daten aus einem Quellsystem ist es wichtig, dass diese Schlüssel im Zielsystem gültig bleiben, damit die Beziehungen weiterhin zum Verbinden von Tabellen verwendet werden können oder dass sie so transformiert werden, dass sie dem Zielschema entsprechen. Wenn beispielsweise der Schlüssel „customer_id“ nicht auf unser Zielsystem zutrifft, werden alle Tabellen, die ihn als Primär- oder Fremdschlüssel verwendet haben, getrennt. Wenn Beziehungen zwischen Tabellen unterbrochen wurden und Daten verschoben werden, ist es schwierig, auf die Daten zuzugreifen und sie zu verwenden. Aus diesem Grund haben wir sie auf unser Zielsystem verschoben. Schließlich möchten Sie sicherstellen, dass die Konventionen mit dem Schema der Zieldatenbank übereinstimmen. Manchmal verwenden Daten aus externen Quellen unterschiedliche Konventionen für die Benennung von Spalten und Tabellen. Sie könnten beispielsweise über ein Quellsystem verfügen, das „Mitarbeiter-ID“ als ein Wort zur Identifizierung dieses Felds verwendet, die Zieldatenbank jedoch möglicherweise „mitarbeiter_id“. Sie müssen sicherstellen, dass diese konsistent sind, damit beim Abrufen von Daten für die Analyse keine Fehler auftreten. Zusätzlich zu den Eigenschaften selbst gibt es einige andere Dokumentationstools, die die Datenschemavalidierung unterstützen; Datenwörterbücher und Datenlinien. Ein Datenwörterbuch ist eine Sammlung von Informationen, die den Inhalt, das Format und die Struktur von Datenobjekten innerhalb einer Datenbank sowie deren Beziehungen beschreiben. Möglicherweise wird dies auch als Metadaten-Repository bezeichnet. Sie wissen vielleicht, dass Metadaten Daten über Daten sind. Dies ist ein sehr wichtiges Konzept in BI. Wenn Sie also einige der Lektionen zu Metadaten aus dem Google Data Analytics-Zertifikat noch einmal durchgehen möchten, tun Sie das jetzt. Im Fall von Datenwörterbüchern stellen diese Metadaten dar, da sie grundsätzlich einen Datentyp, Metadaten, verwenden, um die Verwendung und Herkunft eines anderen Datenelements zu definieren. Es gibt mehrere Gründe, warum Sie ein Datenwörterbuch für Ihr Team erstellen möchten. Zum einen hilft es, Inkonsistenzen während eines Projekts zu vermeiden. Darüber hinaus können Sie alle Konventionen definieren, die andere Teammitglieder kennen müssen, um eine bessere Abstimmung zwischen den Teams zu erreichen. Das Beste daran ist, dass es die Arbeit mit den Daten erleichtert. Lassen Sie uns nun die Datenherkunft untersuchen. Die Datenherkunft beschreibt einen Prozess zur Identifizierung des Ursprungs von Daten, ihres Transportwegs im System und der Art und Weise, wie sie sich im Laufe der Zeit verändert haben. Dies ist nützlich, denn wenn Sie einen Fehler erhalten, können Sie die Herkunft dieses Datenelements verfolgen und nachvollziehen, was auf dem Weg passiert ist, der das Problem verursacht hat. Anschließend können Sie Standards einführen, um das gleiche Problem in Zukunft zu vermeiden. Der Einsatz von Schemavalidierung, Datenwörterbüchern und Datenherkunftslinien hilft BI-Experten wirklich dabei, die Konsistenz zu fördern, wenn Daten von der Quelle zum Ziel verschoben werden. Dies bedeutet, dass sich alle Benutzer auf die erstellten BI-Lösungen verlassen können. Wir werden diese Konzepte bald weiter untersuchen.

Beispieldatenwörterbuch und Datenherkunft

Wie Sie in diesem Kurs erfahren haben, verfügen Business-Intelligence-Experten über drei Haupttools, mit denen sie die Konformität von der Quelle bis zum Ziel sicherstellen können: Schemavalidierung, Datenwörterbücher und Datenherkunft. In dieser Lektüre werden Sie einige Beispiele für Datenwörterbücher und -linien untersuchen, um besser zu verstehen, wie diese Elemente funktionieren.

Datenwörterbücher

Ein Datenwörterbuch ist eine Sammlung von Informationen, die den Inhalt, das Format und die Struktur von Datenobjekten innerhalb einer Datenbank sowie deren Beziehungen beschreiben. Dies kann auch als Metadaten-Repository bezeichnet werden, da Datenwörterbücher Metadaten verwenden, um die Verwendung und Herkunft anderer Datenelemente zu definieren. Hier ist ein Beispiel für eine Produkttabelle, die in einer Verkaufsdatenbank vorhanden ist:

Produkttabelle

Artikel Identifikationsnummer

Preis

Abteilung

Anzahl_der_Verkäufe

Number_in_Stock

Saisonal

47257

33,00 $

Gartenarbeit

744

598

Ja

39496

82,00 $

Wohnkultur

383

729

Ja

73302

56,00 $

Möbel

874

193

NEIN

16507

100,00 $

Heimbüro

310

559

Ja

1232

125,00 $

Partyzubehör

351

517

NEIN

3412

45,00 $

Gartenarbeit

901

942

NEIN

54228

60,00 $

Partyzubehör

139

520

NEIN

66415

38,00 $

Wohnkultur

615

433

Ja

78736

12,00 $

Lebensmittelgeschäft

739

648

NEIN

34369

28,00 $

Gartenarbeit

555

389

Ja

Diese Tabelle ist eigentlich die endgültige Zieltabelle für Daten, die aus mehreren Quellen gesammelt wurden. Es ist wichtig, die Konsistenz von den Quellen bis zum Ziel sicherzustellen, da diese Daten von verschiedenen Stellen im System stammen. Hier kommt das Datenwörterbuch ins Spiel:

Datenwörterbuch

Name

Definition

Datentyp

Artikel Identifikationsnummer

ID-Nummer, die allen Produktartikeln im Geschäft zugewiesen wird

Ganze Zahl

Preis

Aktueller Preis des Produktartikels

Ganze Zahl

Abteilung

Zu welcher Abteilung der Produktartikel gehört

Charakter

Anzahl_der_Verkäufe

Die aktuelle Anzahl der verkauften Produktartikel

Ganze Zahl

Number_in_Stock

Die aktuelle Anzahl der Produktartikel auf Lager

Ganze Zahl

Saisonal

Ob der Produktartikel nur saisonal verfügbar ist oder nicht

Boolescher Wert

Sie können die im Wörterbuch beschriebenen Eigenschaften verwenden, um eingehende Daten mit der Zieltabelle zu vergleichen. Wenn Datenobjekte nicht mit den Einträgen im Wörterbuch übereinstimmen, wird die Datenvalidierung den Fehler melden, bevor die falschen Daten erfasst werden.

Wenn beispielsweise eingehende Daten, die an die Spalte „Abteilung“ übermittelt werden, numerische Daten enthalten, können Sie vor der Zustellung schnell erkennen, dass ein Fehler aufgetreten ist, da im Datenwörterbuch angegeben ist, dass die Abteilungsdaten zeichenartig sein sollten.

Datenherkunft

Eine Datenherkunft beschreibt den Prozess der Identifizierung des Ursprungs von Daten, ihres Verlaufs im System und der Art und Weise, wie sie sich im Laufe der Zeit verändert haben. Dies kann für BI-Experten sehr hilfreich sein, denn wenn sie auf einen Fehler stoßen, können sie ihn mithilfe der Herkunft tatsächlich bis zur Quelle zurückverfolgen. Anschließend können sie Kontrollen durchführen, um zu verhindern, dass dasselbe Problem erneut auftritt.

Stellen Sie sich beispielsweise vor, dass Ihr System bei eingehenden Daten über die Anzahl der Verkäufe für einen bestimmten Artikel einen Fehler gemeldet hat. Es kann schwierig sein, herauszufinden, wo dieser Fehler aufgetreten ist, wenn Sie die Herkunft dieses bestimmten Datenelements nicht kennen. Wenn Sie jedoch den Pfad dieser Daten durch Ihr System verfolgen, können Sie herausfinden, wo eine Überprüfung erstellt werden muss.

Eine Darstellung der Datenbewegung durch ein System

Indem Sie die Verkaufsdaten über ihren gesamten Lebenszyklus im System verfolgen, stellen Sie fest, dass ein Problem mit der ursprünglichen Datenbank vorliegt, aus der sie stammen, und dass die Daten transformiert werden müssen, bevor sie in spätere Tabellen aufgenommen werden.

Die zentralen Thesen

Tools wie Datenwörterbücher und Datenherkunftsverzeichnisse sind nützlich, um Inkonsistenzen zu verhindern, wenn Daten von Quellsystemen zu ihrem endgültigen Ziel verschoben werden. Es ist wichtig, dass Benutzer, die auf diese Daten zugreifen und sie verwenden, darauf vertrauen können, dass diese korrekt und konsistent sind. Diese Tools verfolgen und validieren Daten während ihrer gesamten Reise aktiv und stellen so sicher, dass sie für die Analyse und Entscheidungsfindung zuverlässig sind. Dies ist der Schlüssel zum Aufbau vertrauenswürdiger Berichte und Dashboards als BI-Experte!

Überprüfen Sie Ihr Schema

Video 70

Eine der besten Möglichkeiten zu lernen ist eine Fallstudie. Wenn man miterlebt, wie etwas in einer tatsächlichen Organisation passiert ist, werden Ideen und Konzepte wirklich zum Leben erweckt. In diesem Video sehen wir uns die Schema-Governance in Aktion bei einer gemeinnützigen Bildungseinrichtung an. In diesem Szenario sind die Entscheidungsträger der gemeinnützigen Organisation daran interessiert, die Bildungsergebnisse in ihrer Gemeinde zu messen. Dazu beziehen sie Daten aus Schuldatenbanken ein, um Lernziele, nationale Bildungsstatistiken und Schülerbefragungen auszuwerten. Da sie Daten aus mehreren Quellen in ihr eigenes Datenbanksystem ziehen, ist es wichtig, dass sie die Konsistenz aller Daten wahren, um Fehler zu vermeiden und den Verlust wichtiger Informationen zu vermeiden. Glücklicherweise verfügt diese Organisation bereits über ein Datenwörterbuch und eine Datenlinie, um die erforderlichen Standards festzulegen. Sehen wir uns ein Beispiel einer Spalte aus der Tabelle „Studenteninformationen“ an. Diese Tabelle hat fünf Spalten. Schülerausweis, Schulsystem, Schule, Alter und Notendurchschnitt. Jede Spalte in dieser Tabelle wurde im Datenwörterbuch aufgezeichnet, um anzugeben, welche Informationen sie enthält. Daher können wir zum Datenwörterbucheintrag für die Spalte „Schulsystem“ gehen, um die Standards für diese Tabelle noch einmal zu überprüfen. Zur Erinnerung: Ein Datenwörterbuch ist eine Sammlung von Informationen, die den Inhalt, das Format und die Struktur von Datenobjekten innerhalb einer Datenbank und deren Beziehungen beschreiben. Dieses Wörterbuch zeichnet vier spezifische Eigenschaften auf: den Namen der Spalte, ihre Definition, den Datentyp und mögliche Werte. Der Wörterbucheintrag für das Alter lässt uns wissen, dass die Datenobjekte in dieser Spalte Informationen über das Alter eines Schülers enthalten. Es sagt uns auch, dass es sich um Daten vom Typ Integer handelt. Wir können diese Eigenschaften verwenden, um eingehende Daten mit der Zieltabelle zu vergleichen. Wenn es sich bei Datenobjekten nicht um Daten vom Typ Ganzzahl handelt, wird bei der Schemavalidierung der Fehler gemeldet, bevor die falschen Daten in das Ziel aufgenommen werden. Was passiert, wenn ein Datenobjekt den Schemavalidierungsprozess nicht besteht? Mithilfe der Datenherkunft können wir tatsächlich den Weg dieses Datenelements verfolgen und herausfinden, an welchen Stellen im Prozess wir möglicherweise eine Qualitätsprüfung hinzufügen möchten. Auch hier umfasst eine Datenherkunft Informationen über den Ursprung der Daten, wohin sie im System verschoben werden und wie sie sich im Laufe der Zeit verändert haben. Während des Schemavalidierungsprozesses ist bei diesem Datenelement ein Fehler aufgetreten, da es derzeit nicht in einen ganzzahligen Typ umgewandelt wird. Wenn wir die Datenherkunft überprüfen, können wir die Bewegung dieses Objekts über unser System verfolgen. Diese Daten wurden zunächst in der Datenbank einzelner Schulen gespeichert, bevor sie in die Datenbank des Schulsystems eingelesen wurden. Die Daten der einzelnen Schulen wurden von unserer Pipeline zusammen mit Daten aus anderen Schulsystemen aufgenommen und dann während des Bewegungsprozesses organisiert und transformiert. Als diese Daten in die Originaldatenbank der Schule eingegeben wurden, wurden sie offenbar nicht richtig typisiert. Wir können dies bestätigen, indem wir den Datentyp in der gesamten Abstammungslinie überprüfen. Die Abstammung umfasst auch alle Transformationen, die diese Daten bisher durchlaufen haben. Außerdem stellen wir an dieser Stelle möglicherweise fest, dass die Typumwandlung bei Qualitätsprüfungen nicht in unseren Transformationsprozess integriert ist. Das sind gute Nachrichten. Jetzt wissen wir, dass dies ein Prozess ist, den wir in die Pipeline integrieren sollten, bevor Daten in die Zieltabelle eingelesen werden. In diesem Fall sollten Altersdatenobjekte vom Typ Ganzzahl sein. Auf diese Weise können Schema-Governance und -Validierung dazu beitragen, Systeme zu verbessern und Fehler zu verhindern. Es gibt weitere Tests, die auf eine Pipeline angewendet werden sollten, um sicherzustellen, dass sie ordnungsgemäß funktioniert. Wir werden bald mehr darüber erfahren. Aber jetzt haben Sie ein besseres Verständnis dafür, wie Sie das Schema validieren und Ihre Pipeline-Prozesse weiter verbessern können.

Checkliste zur Schemavalidierung

In diesem Kurs haben Sie die Tools kennengelernt, mit denen Business-Intelligence-Experten die Konformität von der Quelle bis zum Ziel sicherstellen: Schemavalidierung, Datenwörterbücher und Datenherkunft. In einer anderen Lektüre hatten Sie bereits Gelegenheit, Datenwörterbücher und Abstammungslinien zu erkunden. In dieser Lektüre erhalten Sie eine Checkliste für die Schemavalidierung, die Sie als Leitfaden für Ihren eigenen Validierungsprozess verwenden können.

Bei der Schemavalidierung handelt es sich um einen Prozess, mit dem sichergestellt wird, dass das Datenschema des Quellsystems mit dem Datenschema der Zieldatenbank übereinstimmt. Dies ist wichtig, denn wenn die Schemata nicht übereinstimmen, kann es zu Systemfehlern kommen, die schwer zu beheben sind. Um diese Probleme zu vermeiden, ist es wichtig, die Schemavalidierung in Ihren Workflow zu integrieren.

Häufige Probleme bei der Schemavalidierung

  • Die Schlüssel sind weiterhin gültig: Primär- und Fremdschlüssel bauen Beziehungen zwischen Tabellen in relationalen Datenbanken auf. Diese Tasten sollten weiterhin funktionieren, nachdem Sie Daten von einem System in ein anderes verschoben haben.

  • Die Tabellenbeziehungen wurden beibehalten: Die Schlüssel tragen dazu bei, die zum Verbinden der Tabellen verwendeten Beziehungen beizubehalten, sodass Schlüssel weiterhin zum Verbinden von Tabellen verwendet werden können. Es ist wichtig sicherzustellen, dass diese Beziehungen erhalten bleiben oder dass sie so transformiert werden, dass sie dem Zielschema entsprechen.

  • Die Konventionen sind konsistent: Die Konventionen für eingehende Daten müssen mit dem Schema der Zieldatenbank konsistent sein. Daten aus externen Quellen verwenden möglicherweise andere Konventionen für die Benennung von Spalten in Tabellen – es ist wichtig, diese abzugleichen, bevor sie dem Zielsystem hinzugefügt werden.

Verwendung von Datenwörterbüchern und Abstammungslinien

Sie haben bereits einiges über Datenwörterbücher und Abstammungslinien gelernt. Zur Erinnerung: Ein Datenwörterbuch ist eine Sammlung von Informationen, die den Inhalt, das Format und die Struktur von Datenobjekten innerhalb einer Datenbank sowie deren Beziehungen beschreiben. Und bei einer Datenherkunft geht es darum, den Ursprung von Daten zu identifizieren, wohin sie sich im System bewegt haben und wie sie sich im Laufe der Zeit verändert haben. Diese Tools sind nützlich, da sie Ihnen dabei helfen können, die Standards zu ermitteln, denen eingehende Daten entsprechen sollten, und etwaige Fehler bis zur Quelle aufzuspüren.

Die Datenwörterbücher und Abstammungslinien lesenBereitstellung einiger zusätzlicher Informationen, falls eine weitere Überprüfung erforderlich ist.

Die zentralen Thesen

Die Schemavalidierung ist eine nützliche Prüfung, um sicherzustellen, dass die Daten, die von Quellsystemen in Ihre Zieldatenbank verschoben werden, konsistent sind und keine Fehler verursachen. Wenn Sie Prüfungen einbauen, um sicherzustellen, dass die Schlüssel noch gültig sind, die Tabellenbeziehungen beibehalten wurden und die Konventionen konsistent sind, bevor die Daten übermittelt werden, sparen Sie Zeit und Energie bei der späteren Behebung dieser Fehler.

Datenbankschema

Aktivitätsbeispiel: Bewerten Sie ein Schema mithilfe einer Validierungscheckliste

In dem Schema, das Sie in dieser Aktivität ausgewertet haben, ist die Sales Fact- Tabelle eine zentrale Tabelle, die Kennzahlen aus den Transaktionen enthält. Es enthält außerdem einen internen Schlüssel zu der Dimension, mit der es verknüpft ist. Dies ist eine gängige Schemastruktur in BI-Data-Warehouse-Systemen.

Das ursprüngliche Schema enthält acht Tabellen: Sales Fact, Shipments, Billing, Order Items, Product, Product Price, Order Details und Customer , die über Schlüssel verbunden sind. 

Die zentrale Tabelle ist Sales Fact . Die Fremdschlüssel in der Sales Fact- Tabelle sind wie folgt mit den anderen Tabellen verknüpft: 

  • Der Schlüssel „order_sid“ ist mit den Tabellen „Bestellpositionen“, „Bestelldetails“ , „Sendungen “ und „ Fakturierung “ verknüpft

  • „customer_sid“ verweist auf Bestelldetails ; „order_item_sid“ verweist auf Bestellartikel , Lieferungen und Rechnungen

  • „shipment_sid“ verweist auf Sendungen ; und „billing_sid“ verweist auf die Abrechnung

  • „product_id“ aus der Produkttabelle verweist auf Bestellartikel und Produktpreis

Die Customer- Tabelle verfügt derzeit über keine Links zu anderen Tabellen. Es enthält die folgenden Spalten: „customer_sid“, „customer_name“ und „customer_type“.

Dieses Schemadiagramm enthält die folgenden Probleme:

  • Die Customer-Tabelle ist nicht mit anderen Tabellen verknüpft. Es sollte mit den Tabellen „Sales Facts“ und „Order Details“ verknüpft sein . Dies verstößt gegen die Prüfungen „Schlüssel sind noch gültig“ und „Tabellenbeziehungen wurden beibehalten“.

  • Die Tabelle „Sendungen“ sollte über die Dimension „order_sid“ mit der Tabelle „ Bestellartikel “ verbunden sein . Dies verstößt gegen die Prüfungen „Schlüssel sind noch gültig“ und „Tabellenbeziehungen wurden beibehalten“.

Das Exemplar in dieser Lektüre ist ein Beispiel für das Schema, das Sie ausgewertet haben, dessen Fehler jedoch behoben sind. Es verknüpft die Tabelle „Customer“ über die Dimension „customer_sid“ mit den Tabellen „Sales Facts“ und „Order Details“ . Es besteht eine Verbindung zwischen den Tabellen „Lieferung“ und „Bestellpositionen“ . Es gibt auch einheitliche Namenskonventionen für „product_sid“. Eine konsistente Benennung der Spaltentitel ist nicht zwingend erforderlich, es empfiehlt sich jedoch, die Titel so konsistent wie möglich zu halten.

Die wichtigen Dimensionen, die in diesem Schema Verbindungen darstellen, sind „order_sid“, „order_item_sid“, „customer_sid“, „product_sid“, „shipment_sid“ und „billing_sid“. 

  • Order_sid ist in den Tabellen „Sales Facts“, „Order Items“, „Shippings“, „Fakturierung“ und „Order Details“ vorhanden.

  • Order_item_sid ist in den Tabellen Sales Facts, Order Items, Shipments und Billing vorhanden.

  • Customer_sid ist in den Tabellen „Sales Facts“, „Order Details “ und „Customer“ vorhanden.

  • Product_sid ist in den Tabellen „Bestellartikel“, „Produkt “ und „Produktpreis“ vorhanden .

  • Shipment_sid ist in den Tabellen „Sales Facts“ und „Shipment“ vorhanden .

  • Billing_sid ist in den Tabellen „Sales Facts“ und „Billing“ vorhanden .

Überprüfen Sie die Geschäftsregeln

Video 71

Bisher haben wir viel über Datenbankleistung, Qualitätstests und Schemavalidierung gelernt und wie diese Prüfungen sicherstellen, dass die Datenbank und das Pipelinesystem weiterhin wie erwartet funktionieren. Jetzt beschäftigen wir uns mit einer weiteren wichtigen Prüfung, um sicherzustellen, dass die von Ihnen erstellten Systeme und Prozesse tatsächlich den Geschäftsanforderungen entsprechen. Dies ist wichtig, um sicherzustellen, dass diese Systeme für Ihre Stakeholder weiterhin relevant sind. Dazu überprüfen Profis die Geschäftsregeln. In BI ist eine Geschäftsregel eine Anweisung, die eine Einschränkung für bestimmte Teile einer Datenbank erstellt. Beispielsweise könnte eine Versanddatenbank eine Geschäftsregel vorschreiben, die besagt, dass Versandtermine nicht vor Bestellterminen liegen dürfen. Dadurch wird verhindert, dass Bestelldaten und Versanddaten verwechselt werden und es zu Fehlern in diesem System kommt. Geschäftsregeln werden entsprechend der Art und Weise erstellt, wie eine bestimmte Organisation ihre Daten verwendet. In einem früheren Video haben wir herausgefunden, wie wichtig es sein kann, zu beobachten, wie ein Unternehmen Daten verwendet, bevor ein Datenbanksystem aufgebaut wird. Verstehen der tatsächlichen Bedürfnisse, Anleitungen, Design. Und das gilt auch für Geschäftsregeln. Die von Ihnen erstellten Geschäftsregeln wirken sich auf viele Datenbanken aus und bestimmen, welche Daten erfasst und gespeichert werden, wie Beziehungen definiert werden, welche Art von Informationen die Datenbank bereitstellt und wie sicher die Daten sind. Dadurch wird sichergestellt, dass die Datenbank wie vorgesehen funktioniert. Geschäftsregeln sind in jeder Organisation unterschiedlich, da die Art und Weise, wie Organisationen mit ihren Daten interagieren, immer unterschiedlich ist. Darüber hinaus ändern sich auch die Geschäftsregeln ständig. Aus diesem Grund ist es von entscheidender Bedeutung, Aufzeichnungen darüber zu führen, welche Regeln bestehen und warum. Hier ist ein weiteres Beispiel: Betrachten Sie eine Bibliotheksdatenbank. Das Hauptbedürfnis der Benutzer, die in diesem Fall Bibliothekare sind, besteht darin, Bücher auszuleihen und Informationen über Benutzer zu pflegen. Aus diesem Grund gibt es einige Geschäftsregeln, die diese Bibliothek der Datenbank auferlegen könnte, um das System zu regulieren. Eine Regel könnte sein, dass Bibliotheksbenutzer nicht mehr als fünf Bücher gleichzeitig ausleihen dürfen. Die Datenbank erlaubt es einem Benutzer nicht, ein sechstes Buch auszuleihen. Oder die Datenbank könnte eine Regel enthalten, die besagt, dass dasselbe Buch nicht von zwei Personen gleichzeitig ausgeliehen werden kann. Wenn jemand es versucht, werden die Bibliothekare darauf aufmerksam gemacht, dass eine Redundanz vorliegt. Eine weitere Geschäftsregel könnte sein, dass bestimmte Informationen in das System eingegeben werden müssen, damit ein neues Buch zum Bibliotheksbestand hinzugefügt werden kann. Im Wesentlichen geht es bei der Verifizierung darum, sicherzustellen, dass die in die Zieldatenbank importierten Daten darüber hinaus den Geschäftsregeln entsprechen. Diese Regeln sind wichtige Wissensbestandteile, die einem BI-Experten helfen, zu verstehen, wie ein Unternehmen und seine Prozesse funktionieren. Dies hilft dem BI-Experten, ein Fachexperte und vertrauenswürdiger Berater zu werden. Wie Sie wahrscheinlich bemerken, ist dieser Prozess der Schemavalidierung sehr ähnlich. Bei der Schemavalidierung nehmen Sie das Schema der Zieldatenbank und vergleichen eingehende Daten damit. Daten, die diese Prüfung nicht bestehen, werden nicht in die Zieldatenbank aufgenommen. Ebenso vergleichen Sie eingehende Daten mit den Geschäftsregeln, bevor Sie sie in die Datenbank laden. Wenn in unserem Bibliotheksbeispiel ein Benutzer eine Buchbestellung aufgibt, er aber bereits mehr als fünf Bücher aus der Bibliothek hat, entsprechen diese eingehenden Daten nicht der voreingestellten Geschäftsregel und verhindern, dass er das Buch ausleiht . Und das sind die Grundlagen zur Überprüfung von Geschäftsregeln. Diese Prüfungen sind wichtig, da sie sicherstellen, dass Datenbanken ihre Aufgaben wie vorgesehen erfüllen. Und da Geschäftsregeln für die Funktionsweise von Datenbanken so wichtig sind, ist es sehr wichtig, zu überprüfen, ob sie ordnungsgemäß funktionieren. Demnächst erhalten Sie Gelegenheit, die Geschäftsregeln genauer zu erkunden.

Geschäftsregeln

Wie Sie gelernt haben, ist eine Geschäftsregel eine Anweisung, die eine Einschränkung für bestimmte Teile einer Datenbank erstellt. Diese Regeln werden entsprechend der Art und Weise entwickelt, wie eine Organisation Daten verwendet. Darüber hinaus sorgen die Regeln für Effizienzsteigerungen, ermöglichen wichtige Kontrollen und veranschaulichen manchmal auch die Werte eines Unternehmens in der Praxis. Wenn ein Unternehmen beispielsweise Wert auf funktionsübergreifende Zusammenarbeit legt, kann es Regeln geben, wonach mindestens zwei Vertreter zweier Teams die Fertigstellung eines Datensatzes abhaken müssen. Sie beeinflussen, welche Daten erfasst und gespeichert werden, wie Beziehungen definiert werden, welche Art von Informationen die Datenbank bereitstellt und wie sicher die Daten sind. In dieser Lektüre erfahren Sie mehr über die Entwicklung von Geschäftsregeln und sehen ein Beispiel für die Implementierung von Geschäftsregeln in einem Datenbanksystem.

Durchsetzung von Geschäftsregeln

Geschäftsregeln hängen stark von der Organisation und ihren Datenanforderungen ab. Das bedeutet, dass die Geschäftsregeln für jede Organisation unterschiedlich sind. Dies ist einer der Gründe, warum die Überprüfung von Geschäftsregeln so wichtig ist; Diese Prüfungen helfen sicherzustellen, dass die Datenbank tatsächlich die von ihr benötigte Aufgabe erfüllt. Aber bevor Sie Geschäftsregeln überprüfen können, müssen Sie sie implementieren.

Angenommen, das Unternehmen, für das Sie arbeiten, verfügt über eine Datenbank, in der die von Mitarbeitern eingegebenen Bestellanfragen verwaltet werden. Bestellungen über 1.000 US-Dollar bedürfen der Genehmigung durch den Manager. Um diesen Prozess zu automatisieren, können Sie der Datenbank einen Regelsatz auferlegen, der Anfragen über 1.000 US-Dollar automatisch an eine Berichtstabelle übermittelt, bis die Genehmigung durch den Manager vorliegt. Weitere Geschäftsregeln, die in diesem Beispiel gelten können, sind: Preise müssen numerische Werte sein (der Datentyp sollte eine Ganzzahl sein); Damit eine Anfrage existiert, ist ein Grund zwingend erforderlich (das Tabellenfeld darf nicht null sein).

Das Flussdiagramm stellt die drei Geschäftsregeln dar: Produktbestellanfragen, Anfragen mit ausstehender Genehmigung und genehmigte Produktbestellung

Um diese Geschäftsanforderung zu erfüllen, gibt es in diesem System drei Regeln:

  1. Bestellanfragen unter 1.000 US-Dollar werden automatisch an die Tabelle mit den genehmigten Produktbestellanfragen übermittelt

  2. Anfragen über 1.000 US-Dollar werden automatisch an die Tabelle „Anfragen mit ausstehender Genehmigung“ übermittelt

  3. Genehmigte Anfragen werden automatisch an die Tabelle mit den genehmigten Produktbestellanfragen übermittelt

Diese Regeln wirken sich grundsätzlich auf die Form dieses Datenbanksystems aus, um den Anforderungen dieser bestimmten Organisation gerecht zu werden.

Geschäftsregeln überprüfen

Sobald die Geschäftsregeln implementiert wurden, ist es wichtig, weiterhin zu überprüfen, ob sie ordnungsgemäß funktionieren und ob die in die Zielsysteme importierten Daten diesen Regeln entsprechen. Diese Prüfungen sind wichtig, da sie testen, ob das System die Aufgabe erfüllt, die es erfüllen muss, d. h. in diesem Fall die Zustellung von Produktbestellanfragen, die einer Genehmigung bedürfen, an die richtigen Beteiligten. 

Die zentralen Thesen

Geschäftsregeln legen fest, welche Daten erfasst und gespeichert werden, wie Beziehungen definiert werden, welche Art von Informationen die Datenbank bereitstellt und wie sicher die Daten sind. Diese Regeln haben großen Einfluss darauf, wie eine Datenbank gestaltet ist und wie sie nach der Einrichtung funktioniert. Als BI-Experte ist es hilfreich, Geschäftsregeln zu verstehen und zu verstehen, warum sie wichtig sind, da dies Ihnen helfen kann, die Funktionsweise bestehender Datenbanksysteme zu verstehen, neue Systeme entsprechend den Geschäftsanforderungen zu entwerfen und sie so zu warten, dass sie in Zukunft nützlich sind.

Datenbankleistungstests im ETL-Kontext

In den vorherigen Lektionen haben Sie etwas über die Datenbankoptimierung als Teil des Datenbankerstellungsprozesses gelernt. Aber es ist auch ein wichtiger Gesichtspunkt, wenn es darum geht, sicherzustellen, dass Ihre ETL- und Pipeline-Prozesse ordnungsgemäß funktionieren. In dieser Lektüre kehren Sie in einem neuen Kontext zum Testen der Datenbankleistung zurück: ETL-Prozesse.

Wie sich die Datenbankleistung auf Ihre Pipeline auswirkt

Die Datenbankleistung ist die Geschwindigkeit, mit der ein Datenbanksystem Benutzern Informationen bereitstellen kann. Durch die Optimierung der Geschwindigkeit, mit der die Datenbank Aufgaben für Benutzer ausführen kann, kann Ihr Team das, was es benötigt, aus dem System abrufen und viel schneller Erkenntnisse aus den Daten gewinnen.

Ihre Datenbanksysteme sind ein wichtiger Teil Ihrer ETL-Pipeline – dazu gehört auch, woher die Daten in Ihrer Pipeline kommen und wohin sie gehen. Die ETL oder Pipeline ist selbst ein Benutzer, der Anforderungen an die Datenbank stellt, die er erfüllen muss, während er gleichzeitig die Last anderer Benutzer und Transaktionen verwaltet. Die Datenbankleistung ist also nicht nur wichtig, um sicherzustellen, dass die Datenbank selbst die Anforderungen Ihres Unternehmens erfüllen kann – sie ist auch wichtig für die automatisierten BI-Tools, die Sie für die Interaktion mit der Datenbank einrichten.

Schlüsselfaktoren beim Leistungstest

Zuvor haben Sie einige Überlegungen zur Datenbankleistung kennengelernt, die Sie überprüfen können, wenn eine Datenbank langsamer wird. Hier ist eine kurze Checkliste dieser Überlegungen:

  • Abfragen müssen optimiert werden

  • Die Datenbank muss vollständig indiziert sein

  • Die Daten sollten defragmentiert werden

  • Es muss genügend CPU und Arbeitsspeicher vorhanden sein, damit das System Anfragen verarbeiten kann

Sie haben außerdem etwas über die fünf Faktoren der Datenbankleistung gelernt: Arbeitslast, Durchsatz, Ressourcen, Optimierung und Konflikt. Diese Faktoren beeinflussen alle die Leistung einer Datenbank, und es kann Teil der Aufgabe eines BI-Experten sein, diese Faktoren zu überwachen und bei Bedarf Verbesserungen am System vorzunehmen.

Diese allgemeinen Leistungstests sind wirklich wichtig – so stellen Sie sicher, dass Ihre Datenbank problemlos Datenanfragen für Ihr Unternehmen verarbeiten kann! Aber wenn es um das Testen der Datenbankleistung geht und Sie gleichzeitig Ihren ETL-Prozess in Betracht ziehen, sollten Sie noch eine weitere wichtige Prüfung durchführen: das Testen der Tabelle, Spalte, Zeilenanzahl und des Abfrageausführungsplans.

Durch das Testen der Zeilen- und Tabellenanzahl können Sie sicherstellen, dass die Datenanzahl zwischen der Ziel- und der Quelldatenbank übereinstimmt. Wenn es Unstimmigkeiten gibt, könnte das bedeuten, dass ein potenzieller Fehler im ETL-System vorliegt. Ein Fehler im System kann zu Abstürzen oder Fehlern in den Daten führen. Daher kann die Überprüfung der Anzahl der Tabellen, Spalten und Zeilen der Daten in der Zieldatenbank mit den Quelldaten eine nützliche Möglichkeit sein, dies zu verhindern.

Die zentralen Thesen

Als BI-Experte müssen Sie sicher sein, dass Ihre Datenbank die Anforderungen Ihres Unternehmens erfüllen kann. Leistungstests sind ein wichtiger Teil des Prozesses. Leistungstests sind nicht nur während der Datenbankerstellung selbst nützlich, sondern auch wichtig, um sicherzustellen, dass Ihre Pipelines ordnungsgemäß funktionieren. Wenn Sie daran denken, Leistungstests zur Überprüfung Ihrer Pipelines einzubeziehen, können Sie die automatisierten Prozesse aufrechterhalten, die den Benutzern Daten zugänglich machen!

Schützen Sie sich vor bekannten Problemen

In dieser Lektüre erfahren Sie mehr über eine Abwehrprüfung, die auf eine Datenpipeline angewendet wird. Defensive Checks helfen Ihnen, Probleme in Ihrer Datenpipeline zu verhindern. Sie ähneln Leistungsprüfungen, konzentrieren sich jedoch auf andere Arten von Problemen. Das folgende Szenario ist ein Beispiel dafür, wie Sie verschiedene Arten von Abwehrprüfungen für eine Datenpipeline implementieren können.

Szenario

Arsha, Business Intelligence Analyst bei einem Telekommunikationsunternehmen, baute eine Datenpipeline auf, die Daten aus sechs Quellen in einer einzigen Datenbank zusammenführt. Beim Aufbau ihrer Pipeline integrierte sie mehrere Abwehrkontrollen, die sicherstellten, dass die Daten ordnungsgemäß verschoben und transformiert wurden.

Ihre Datenpipeline nutzte die folgenden Quellsysteme:

  1. Kundendetails

  2. Mobilfunkverträge

  3. Internet- und Kabelverträge

  4. Geräteverfolgung und -aktivierung

  5. Abrechnung

  6. Buchhaltung

Alle diese Datensätze mussten harmonisiert und in einem Zielsystem für Business-Intelligence-Analysen zusammengeführt werden. Dieser Prozess erforderte mehrere Ebenen der Datenharmonisierung, Validierung, Abstimmung und Fehlerbehandlung.

Pipeline-Schichten

Pipelines können viele verschiedene Verarbeitungsstufen haben. Diese Stufen oder Schichten tragen dazu bei, dass die Daten auf die effektivste und effizienteste Weise gesammelt, aggregiert, transformiert und bereitgestellt werden. Es ist beispielsweise wichtig, sicherzustellen, dass Sie alle benötigten Daten an einem Ort haben, bevor Sie mit der Bereinigung beginnen, um sicherzustellen, dass Ihnen nichts entgeht. Dieser Prozess besteht normalerweise aus vier Ebenen: Inszenierung, Harmonisierung, Validierung und Versöhnung. Nach diesen vier Schichten werden die Daten in ihre Zieldatenbank übertragen und ein Fehlerbehandlungsbericht fasst jeden Schritt des Prozesses zusammen.

Diagramm der Pipelineschichten. Quellen werden in jede Ebene eingespeist, bevor sie in die Zieltabelle oder den Fehlerbehandlungsbericht gelangen.

Staging-Ebene

Zunächst werden die Originaldaten aus den Quellsystemen geholt und im Staging-Layer gespeichert . In dieser Schicht führte Arsha die folgenden Verteidigungskontrollen durch:

  • Verglichen wird die Anzahl der empfangenen und gespeicherten Datensätze

  • Verglichene Zeilen, um festzustellen, ob zusätzliche Datensätze erstellt wurden oder Datensätze verloren gingen

  • Wichtige Felder wie Beträge, Daten und IDs überprüft

Arsha hat die nicht übereinstimmenden Datensätze in den Fehlerbehandlungsbericht verschoben. Sie fügte für jeden nicht konvertierten Quelldatensatz das Datum und die Uhrzeit seiner ersten Verarbeitung, das Datum und die Uhrzeit seines letzten Wiederholungsversuchs, die Ebene, auf der der Fehler aufgetreten ist, und eine Meldung mit einer Beschreibung des Fehlers hinzu. Durch das Sammeln dieser Aufzeichnungen konnte Arsha den Ursprung der Probleme finden und beheben. Sie markierte alle Datensätze, die in die nächste Ebene verschoben wurden, als „verarbeitet“.

Harmonisierungsschicht

Auf der Harmonisierungsschicht werden Datennormalisierungsroutinen und Datensatzanreicherung durchgeführt. Dadurch wird sichergestellt, dass die Datenformatierung in allen Quellen konsistent ist. Um die Daten zu harmonisieren, führte Arsha die folgenden Abwehrprüfungen durch:

  • Das Datumsformat wurde standardisiert

  • Die Währung wurde standardisiert

  • Standardisierte Groß- und Kleinschreibung

  • Formatierte IDs mit führenden Nullen

  • Teilen Sie Datumswerte auf, um Jahr, Monat und Tag in separaten Spalten zu speichern

  • Angewandte Konvertierungs- und Prioritätsregeln aus den Quellsystemen

Wenn ein Datensatz nicht harmonisiert werden konnte, verschob sie ihn in die Fehlerbehandlung. Sie markierte alle Datensätze, die in die nächste Ebene verschoben wurden, als „verarbeitet“.

Validierungsschicht

Auf der Validierungsebene werden Geschäftsregeln validiert. Zur Erinnerung: Eine Geschäftsregel ist eine Anweisung, die eine Einschränkung für bestimmte Teile einer Datenbank erstellt. Diese Regeln werden entsprechend der Art und Weise entwickelt, wie eine Organisation Daten verwendet. Arsha führte die folgenden Defensivchecks durch:

  • Es wurde sichergestellt, dass die Werte in der Spalte „Abteilung“ nicht null sind, da „Abteilung“ eine entscheidende Dimension ist

  • Es wurde sichergestellt, dass die Werte in der Spalte „Diensttyp“ innerhalb der zulässigen Werte zur Verarbeitung liegen

  • Es wurde sichergestellt, dass jeder Abrechnungsdatensatz einem gültigen verarbeiteten Vertrag entsprach

Wenn ein Datensatz erneut nicht validiert werden konnte, verschob sie ihn in die Fehlerbehandlung. Sie markierte alle Datensätze, die in die nächste Ebene verschoben wurden, als „verarbeitet“.

Versöhnungsschicht

Auf der Abgleichsebene werden doppelte oder unzulässige Datensätze gefunden. Hier führte Arsha defensive Überprüfungen durch, um die folgenden Arten von Datensätzen zu finden:

  • Sich langsam ändernde Dimensionen

  • Historische Aufzeichnungen

  • Aggregationen

Wie bei den vorherigen Ebenen hat Arsha die Datensätze, die die Abgleichsregeln nicht bestanden haben, in die Fehlerbehandlung verschoben. Nach dieser Runde defensiver Kontrollen brachte sie die verarbeiteten Datensätze in die BI- und Analytics-Datenbank (OLAP).

Fehlerbehandlung, Berichterstattung und Analyse

Nachdem die Pipeline fertiggestellt und die Abwehrprüfungen durchgeführt worden waren, erstellte Arsha einen Fehlerbehandlungsbericht, um den Prozess zusammenzufassen. Der Bericht listete die Anzahl der Datensätze aus den Quellsystemen sowie die Anzahl der Datensätze auf, die in jeder Ebene als Fehler markiert oder ignoriert wurden. Am Ende des Berichts ist die endgültige Anzahl der verarbeiteten Datensätze aufgeführt.

Zusammenfassung der Anzahl der Datensätze aus der Quelle und wie viele in jeder Pipeline-Ebene verarbeitet, als Fehler markiert oder ignoriert wurden

Die zentralen Thesen

Defensive Kontrollen stellen sicher, dass eine Datenpipeline ihre Daten ordnungsgemäß verarbeitet. Defensive Kontrollen sind ein wesentlicher Bestandteil der Wahrung der Datenintegrität. Sobald die Staging-, Harmonisierungs-, Validierungs- und Abstimmungsebenen überprüft wurden, können die in die Zieldatenbank übernommenen Daten in einer Visualisierung verwendet werden.

Burak: Sich weiterentwickelnde Technologie

Video 72

Mein Name ist Burak. Ich bin BI-Ingenieur bei Google. Was ein BI-Ingenieur tatsächlich tut, ist das Sammeln, Speichern und Analysieren von Daten, wobei viel Infrastruktur beteiligt ist. Ich bin vor fünf Jahren als neuer Einwanderer in die USA gezogen. Es war sehr schwierig für mich, den ersten Job zu bekommen. Obwohl ich einen Abschluss habe, brauchte ich noch viel Training, um mich auf die inländischen Bedürfnisse des Marktes vorzubereiten. Ich habe angefangen, mir selbst beizubringen, was ein BI-Ingenieur macht? Welche wesentlichen technischen Fähigkeiten muss ich erlernen? Ich habe viel online recherchiert. Ich habe viele kostenlose Sachen gefunden, ich habe ein paar kostenpflichtige Abonnements gefunden und ich habe angefangen, all diese technischen Fähigkeiten zu erlernen, die ich lernen muss, um meinen ersten Job zu bekommen. Die BI-Technologie hat sich in den letzten 10 Jahren stark weiterentwickelt. Ich kann sagen, dass Tabellenkalkulationen vor 10 Jahren sehr alt waren, aber niemand ist mehr ein Spezialist in Sachen Datenanalyse. Ich meine, es wird immer noch für schnelle Analysen verwendet, aber jetzt hat sich alles zur Cloud entwickelt, zu Technologien, ausgefeilteren Sprachen und leistungsfähigeren visuellen Tools, die allen helfen. Ich persönlich muss mich anpassen und neue Umgebungen, neue Sprachen und neue Infrastrukturen verändern. Um mit der Technologie Schritt zu halten, muss man tatsächlich ein wenig recherchieren und verstehen, wie sich die Branche tatsächlich entwickelt. Es gibt viele Online-Ressourcen, Webseiten oder Newsletter, die Sie über die neuesten Industrietrends informieren können. Aber das Wesentliche ändert sich nie. Die Grundlage des BI-Engineerings ist dieselbe. Wenn Sie eine SQL-Sprache lernen, wird die Organisation, für die Sie arbeiten, eine andere SQL-Sprache und andere Dialekte verwenden. Sie müssen noch aufholen, aber die Zeit, die Sie zum Lernen benötigen, wird drastisch kürzer sein als die Zeit, die Sie zum ersten Mal benötigen. Weil es übertragbare Fähigkeiten geben wird. Mein wichtigster Rat ist Hingabe. Wenn Sie die Arbeit mit Daten wirklich lieben und in diesem Bereich arbeiten möchten, ist Engagement eine der wichtigsten Voraussetzungen, da Sie viele technische Fähigkeiten erlernen müssen und dafür Zeit brauchen. Daher empfehle ich, herauszufinden, auf welchen Bereich des BI-Engineerings Sie sich tatsächlich konzentrieren möchten, da es mehrere Teile gibt, an denen Sie arbeiten können. Sie können Infrastrukturen aufbauen, Systeme entwerfen, Daten analysieren oder einige Visualisierungstools verwenden. Je nachdem, auf welchen Bereich Sie sich konzentrieren möchten, variieren die technischen Fähigkeiten, die Sie erlernen müssen.

Fallstudie: FeatureBase, Teil 2: Alternative Lösungen für Pipelinesysteme

Diese Fallstudie mit FeatureBase konzentriert sich auf die Analysephase des BI-Prozesses, in der Sie Beziehungen in den Daten untersuchen, Schlussfolgerungen ziehen, Vorhersagen treffen und fundierte Entscheidungen treffen. Dies folgt einer früheren Fallstudie, in der Sie die Capture-Phase des FeatureBase-Projekts untersucht haben. In einer anschließenden Fallstudie erfahren Sie, wie FeatureBase die Monitor-Phasen dieses Projekts angegangen ist, um sein Geschäftsproblem zu lösen. Wie in der vorherigen FeatureBase-Fallstudie betrachten Sie das Problem, den Prozess und die Lösung für diese Phase des Projekts.

Infografik, die ein Problem, einen Prozess und eine Lösung beschreibt. Problem: So fügen Sie die richtigen Metriken hinzu.

In einer früheren Lektüre wurde Ihnen FeatureBase, das OLAP-Datenbankunternehmen, vorgestellt. Für eine schnelle Auffrischung können Sie eine Rezension lesenTeil eins dieser Fallstudie. Ihre Kerntechnologie, FeatureBase, ist die erste OLAP-Datenbank, die vollständig auf Bitmaps basiert und Echtzeitanalysen und Anwendungen für maschinelles Lernen ermöglicht, indem sie gleichzeitig niedrige Latenz, hohen Durchsatz und hochgradig gleichzeitige Arbeitslasten ausführt. Letztes Mal haben Sie von einem geschäftlichen Problem erfahren, mit dem das FeatureBase-Team konfrontiert war: Es stellte fest, dass die Zahl der Kunden während des Verkaufszyklus zurückging, dass ihre Datenerfassung jedoch nicht über die erforderlichen Messungen verfügte, um zu untersuchen, wann und warum dies geschah. Der erste Schritt zur Bewältigung dieses Problems bestand in der Zusammenarbeit zwischen Vertriebs-, Marketing- und Führungsteams, um zu ermitteln, welche Daten sie benötigen, um zu verstehen, wann Kunden zurückgehen. Anschließend könnten sie diese Erkenntnisse nutzen, um diese Probleme für zukünftige Verkäufe zu untersuchen und anzugehen. In dieser Lektüre konzentrieren Sie sich auf die Datenbanktools, die FeatureBase zum Sammeln von Daten zur Überwachung und Berichterstellung verwendet.

FeatureBase-Logo

 

Feature-orientierte Datenbanken

Während dieses Programms haben Sie verschiedene Datenbanktechnologien kennengelernt, die Pipelinesysteme verwenden, um Daten aufzunehmen, umzuwandeln und an Zieldatenbanken zu liefern. Dieses Setup ist in vielen verschiedenen Organisationen recht verbreitet, und als BI-Experte arbeiten Sie häufig mit Pipelines. Es gibt jedoch auch andere Arten von Datenbanksystemen, die unterschiedliche Technologien verwenden, um Daten für Benutzer zugänglich und nutzbar zu machen. 

FeatureBase ist ein Beispiel für eine alternative Lösung zu herkömmlichen Datenbanken – es basiert auf Bitmaps, einem Format, das Daten als Rohmerkmale speichert. Um Vorhersagemodelle zu erstellen, ist die KI auf die merkmalsorientierte Datenbank angewiesen (und nicht umgekehrt), um Muster zu finden, die als Entscheidungshilfe dienen können. Diese Modelle werden mit messbaren Datenpunkten oder Funktionen gefüttert, die dabei helfen, zu lernen, wie die Daten im Laufe der Zeit effektiver analysiert werden können. Merkmalsorientierte Datenbanken bieten einen alternativen Ansatz zur Datenvorbereitung, indem sie im ersten Schritt die Merkmalsextraktion automatisieren. Der funktionsorientierte Ansatz ermöglicht Echtzeitanalysen und KI-Initiativen, da die Daten oder „Funktionen“ bereits in einem modellbereiten Datenformat vorliegen, das im gesamten Unternehmen sofort zugänglich und wiederverwendbar ist, ohne dass ein erneutes Kopieren oder Vorbereiten erforderlich ist -Verfahren. 

Hier ist ein Beispiel für dieses System: Stellen Sie sich vor, Sie würden versuchen, eine Tierart anhand von Merkmalen vorherzusagen. Menschen hätten eine Liste von Merkmalen, über die sie nachdenken könnten: zum Beispiel Flügel, Schnauzen oder die Anzahl der Beine. Aber diese Merkmale sind auf diese Weise nicht umsetzbar – aber wenn sie in Features wie „has_wings“ oder „has_4_legs“ mit Ja- oder Nein-Werten, die als 1 oder 0 codiert sind, umgewandelt werden, können sie in ein Modell eingespeist und schneller verarbeitet werden. Aus diesem Grund basiert FeatureBase auf Bitmaps. Die Arrays aus Einsen und Nullen können von Maschinen und Modellen leicht verarbeitet werden.

Eine Feature-Tabelle mit vier Features, die in Spalten organisiert sind: animal_id, is_snake, is_poisionous und send_alert.

Feinabstimmungsfunktionen

In der letzten Lektüre haben Sie mitverfolgt, wie die FeatureBase-Führung darüber nachdachte, wie sie ihre ultimative Frage angehen sollte: Warum brechen Kunden während des Verkaufszyklus ab?

Zu diesem Zeitpunkt im Projektzyklus verfügte das Team nicht über integrierte Kennzahlen in seinem System, um herauszufinden, wann Kunden den Verkaufsprozess nicht abschlossen, was für die Untersuchung der Gründe, warum Kunden abwanderten, von entscheidender Bedeutung war. Nachdem das Team festgestellt hatte, was seinem System fehlte, kodierte es diese neuen Funktionen in den Erfassungsprozess – es stellte seinen ursprünglichen Verkaufstrichter mit neuen Attributen über Kunden in jeder Phase des Verkaufszyklus wieder her. Diese neuen Funktionen wurden in ihr Datenbankmodell eingespeist, das mit dem Training zur Erkennung von Mustern begann, sodass sie sofort Erkenntnisse aus ihrem Datenpool ziehen konnten. 

Eines der Attribute, die sie dem Datenerfassungsprozess hinzufügten, verfolgte genau, wann Kunden abstiegen. Sie stellten fest, dass die meisten Kunden, die den Verkauf nicht abgeschlossen hatten, während der technischen Validierungsphase abbrachen. An diesem Punkt würde das FeatureBase-Team FeatureBase im System des Kunden einrichten, damit dieser das Produkt selbst ausprobieren kann. Das Team erkannte, dass dies die kritische Phase war, die es für weitere Untersuchungen brauchte. Sie stellten die Theorie auf, dass die Kunden die technische Validierungsphase nicht zuversichtlich verließen, ob sie diese neue Technologie übernehmen könnten. Sie fragten sich auch, ob Kunden Bedenken hinsichtlich der Zuverlässigkeit und Stabilität des Produkts hätten, da FeatureBase ihr aktuelles, noch funktionierendes Datenbanksystem ersetzen würde. Um dies besser zu verstehen, müssten sie die zu diesem Zeitpunkt gesammelten Kundendaten in ihrem Dashboard untersuchen.

Der nächste Schritt

Als BI-Experte arbeiten Sie möglicherweise mit einer Vielzahl von Datenbanktechnologien, die mit Pipeline-Systemen verbunden sind, wie etwa traditionellere zeilenbasierte Technologien und neuere Alternativen wie FeatureBase. Wenn Sie Ihre Tools und deren Funktionsweise verstehen, können Sie sich auf das Wesentliche konzentrieren: Ihrem Team Zugriff auf die benötigten Antworten zu geben. Während sie ihr Problem weiter untersuchten, stellte das FeatureBase-Team fest, dass die meisten Kunden, die den Verkaufsprozess nicht abgeschlossen hatten, in der technischen Validierungsphase abfielen. 

Dies ist der Punkt, an dem FeatureBase in der Datenumgebung des Kunden implementiert wurde, um festzustellen, ob es für ihn tatsächlich funktionsfähig war. Auf diese Weise kann das FeatureBase-Team den Nutzen von FeatureBase demonstrieren und beweisen, dass es sich um eine praktikable Lösung für die Anforderungen eines Kunden handelt.  

Das Team ging davon aus, dass viele Kunden zwar von den Möglichkeiten des Dienstes begeistert waren, sie jedoch Bedenken hinsichtlich der Akzeptanz und Zuverlässigkeit des Dienstes für ihr Unternehmen hatten. Doch bevor das Team diese Theorie bestätigen oder auf der Grundlage dieser möglichen Antwort Entscheidungen treffen kann, müsste es in der Lage sein, Dashboard-Berichte zu untersuchen und ihre Metriken eingehend zu untersuchen. Darauf werden Sie sich konzentrieren, wenn Sie das nächste Mal zu dieser Fallstudie zurückkehren!

 

Einpacken

Video 73

Als BI-Experte endet Ihre Arbeit nicht, wenn Sie die Datenbanksysteme und Pipeline-Tools für Ihr Unternehmen aufgebaut haben. Es ist außerdem wichtig, sicherzustellen, dass sie weiterhin wie vorgesehen funktionieren und potenzielle Fehler beheben, bevor sie zu Problemen werden, um den laufenden Anforderungen gerecht zu werden. Du hast viel gelernt. Zunächst haben Sie die Bedeutung von Qualitätstests in einem ETL-System untersucht. Dabei wurden eingehende Daten auf Vollständigkeit, Konsistenz, Konformität, Genauigkeit, Redundanz, Integrität und Aktualität überprüft. Sie haben außerdem die Schema-Governance untersucht und untersucht, wie die Schemavalidierung verhindern kann, dass eingehende Daten Fehler im System verursachen, indem sichergestellt wird, dass sie dem Eigenschaftsschema der Zieldatenbank entsprechen. Danach haben Sie herausgefunden, warum die Überprüfung von Geschäftsregeln ein wichtiger Schritt bei der Optimierung ist, da sie sicherstellt, dass die eingehenden Daten den Geschäftsanforderungen der Organisation entsprechen, die sie nutzt. Die Wartung der Speichersysteme, mit denen Benutzer interagieren, ist ein wichtiger Teil der Sicherstellung, dass Ihr System die Anforderungen des Unternehmens erfüllt. Aus diesem Grund ist die Datenbankoptimierung so wichtig, aber es ist genauso wichtig sicherzustellen, dass die Systeme, die Daten von Ort zu Ort bewegen, so effizient wie möglich sind. Und hier kommt die Optimierung von Pipelines und ETL-Systemen ins Spiel. Als Nächstes haben Sie eine weitere Bewertung. Ich weiß, dass Sie dies tun können, und zur Erinnerung: Sie können jedes Material, während Sie sich vorbereiten, sowie das neueste Glossar noch einmal durchsehen. Schauen Sie sich also gerne alle Videos oder Lektüren noch einmal an, um sich vor der Beurteilung aufzufrischen. Anschließend haben Sie die Möglichkeit, alles Gelernte in die Praxis umzusetzen, indem Sie selbst BI-Tools und -Prozesse entwickeln. Sie machen hervorragende Fortschritte auf dem Weg zu einer Karriere im BI-Bereich.

Glossarbegriffe aus Modul 3

Genauigkeit: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass die Daten mit der tatsächlich gemessenen oder beschriebenen Einheit übereinstimmen

Geschäftsregel: Eine Anweisung, die eine Einschränkung für bestimmte Teile einer Datenbank erstellt

Vollständigkeit: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass die Daten alle gewünschten Komponenten oder Maße enthalten

Konformität: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass die Daten dem erforderlichen Zielformat entsprechen

Konsistenz: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass Daten kompatibel sind und über alle Systeme hinweg übereinstimmen

Datenwörterbuch: Eine Sammlung von Informationen, die den Inhalt, das Format und die Struktur von Datenobjekten innerhalb einer Datenbank sowie deren Beziehungen beschreiben

Datenherkunft: Der Prozess der Identifizierung des Ursprungs von Daten, ihres Transportwegs im System und der Art und Weise, wie sie sich im Laufe der Zeit verändert haben

Datenzuordnung: Der Prozess des Abgleichens von Feldern von einer Datenquelle mit einer anderen

Integrität: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass Daten während ihres gesamten Lebenszyklus korrekt, vollständig, konsistent und vertrauenswürdig sind

Qualitätsprüfung: Der Prozess der Überprüfung von Daten auf Mängel, um Systemausfälle zu verhindern; Es umfasst die sieben Validierungselemente Vollständigkeit, Konsistenz, Konformität, Genauigkeit, Redundanz, Integrität und Aktualität

Redundanz: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass nicht mehr Daten als nötig verschoben, umgewandelt oder gespeichert werden

Schemavalidierung: Ein Prozess, der sicherstellt, dass das Datenschema des Quellsystems mit dem Datenschema der Zieldatenbank übereinstimmt

Aktualität: Ein Element der Qualitätsprüfung, mit dem bestätigt wird, dass die Daten aktuell sind

 

Begriffe und Definitionen aus früheren Modulen

A

Anwendungsprogrammierschnittstelle (API): Eine Reihe von Funktionen und Verfahren, die Computerprogramme integrieren und eine Verbindung herstellen, die ihnen die Kommunikation ermöglicht 

Entwickler von Anwendungssoftware: Eine Person, die Computer- oder Mobilanwendungen entwirft, im Allgemeinen für Verbraucher

Attribut: In einem dimensionalen Modell ein Merkmal oder eine Qualität, die zur Beschreibung einer Dimension verwendet wird

B

Business Intelligence (BI): Automatisierung von Prozessen und Informationskanälen, um relevante Daten in umsetzbare Erkenntnisse umzuwandeln, die Entscheidungsträgern leicht zur Verfügung stehen

Business-Intelligence-Governance: Ein Prozess zur Definition und Implementierung von Business-Intelligence-Systemen und -Frameworks innerhalb einer Organisation

Business-Intelligence-Überwachung: Entwicklung und Nutzung von Hardware- und Softwaretools, um Daten einfach und schnell zu analysieren und Stakeholdern die Möglichkeit zu geben, wirkungsvolle Geschäftsentscheidungen zu treffen

Business-Intelligence-Phasen: Die Abfolge von Phasen, die sowohl den BI-Geschäftswert als auch den Reifegrad der Organisationsdaten bestimmen, nämlich Erfassen, Analysieren und Überwachen

Business-Intelligence-Strategie: Das Management der im Business-Intelligence-Prozess verwendeten Personen, Prozesse und Tools

C

Spaltendatenbank: Eine Datenbank, die nach Spalten statt nach Zeilen organisiert ist

Kombinierte Systeme: Datenbanksysteme, die Daten am selben Ort speichern und analysieren

Kompilierte Programmiersprache: Eine Programmiersprache, die codierte Anweisungen kompiliert, die direkt vom Zielcomputer ausgeführt werden

Konflikt: Wenn zwei oder mehr Komponenten versuchen, eine einzelne Ressource auf widersprüchliche Weise zu nutzen

D

Datenanalysten: Personen, die Daten sammeln, transformieren und organisieren

Datenverfügbarkeit: Der Grad oder Umfang, in dem aktuelle und relevante Informationen leicht zugänglich sind und genutzt werden können

Data-Governance-Experten: Personen, die für die formelle Verwaltung der Datenbestände einer Organisation verantwortlich sind

Datenintegrität: Die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus

Data Lake: Ein Datenbanksystem, das große Mengen an Rohdaten im Originalformat speichert, bis sie benötigt werden

Data Mart: Eine themenorientierte Datenbank, die eine Teilmenge eines größeren Data Warehouse sein kann

Datenreife: Das Ausmaß, in dem eine Organisation in der Lage ist, ihre Daten effektiv zu nutzen, um umsetzbare Erkenntnisse zu gewinnen

Datenmodell: Ein Tool zum Organisieren von Datenelementen und ihrer Beziehung zueinander

Datenpartitionierung: Der Prozess der Aufteilung einer Datenbank in verschiedene, logische Teile, um die Abfrageverarbeitung zu verbessern und die Verwaltbarkeit zu erhöhen

Datenpipeline: Eine Reihe von Prozessen, die Daten aus verschiedenen Quellen zur Speicherung und Analyse an ihren endgültigen Bestimmungsort transportieren

Datensichtbarkeit: Der Grad oder Umfang, in dem Informationen aus unterschiedlichen internen und externen Quellen identifiziert, überwacht und integriert werden können

Data Warehouse: Ein spezifischer Datenbanktyp, der Daten aus mehreren Quellsystemen konsolidiert, um Datenkonsistenz, Genauigkeit und effizienten Zugriff zu gewährleisten

Data-Warehousing-Spezialisten: Personen, die Prozesse und Verfahren zur effektiven Speicherung und Organisation von Daten entwickeln

Datenbankmigration: Verschieben von Daten von einer Quellplattform in eine andere Zieldatenbank

Datenbankleistung: Ein Maß für die Arbeitslast, die von einer Datenbank verarbeitet werden kann, sowie die damit verbundenen Kosten

Liefergegenstand: Jedes Produkt, jede Dienstleistung oder jedes Ergebnis, das erreicht werden muss, um ein Projekt abzuschließen

Entwickler: Eine Person, die Programmiersprachen verwendet, um Softwareanwendungen zu erstellen, auszuführen, zu testen und Fehler zu beheben

Dimension (Datenmodellierung): Eine Information, die mehr Details und Kontext zu einer Tatsache liefert

Dimensionstabelle: Die Tabelle, in der die Attribute der Dimensionen eines Fakts gespeichert werden

Entwurfsmuster: Eine Lösung, die relevante Kennzahlen und Fakten verwendet, um ein Modell zur Unterstützung der Geschäftsanforderungen zu erstellen

Dimensionsmodell: Eine Art relationales Modell, das für den schnellen Abruf von Daten aus einem Data Warehouse optimiert wurde

Verteilte Datenbank: Eine Sammlung von Datensystemen, die über mehrere physische Standorte verteilt sind

UND

ELT (Extrahieren, Laden und Transformieren): Eine Art Datenpipeline, die es ermöglicht, Daten aus Data Lakes zu sammeln, in ein einheitliches Zielsystem zu laden und in ein nützliches Format umzuwandeln 

ETL (Extrahieren, Transformieren und Laden): Eine Art Datenpipeline, die es ermöglicht, Daten aus Quellsystemen zu sammeln, in ein nützliches Format zu konvertieren und in ein Data Warehouse oder ein anderes einheitliches Zielsystem zu übertragen

Erfahrungsbasiertes Lernen: Verstehen durch Handeln

F

Fakt: In einem dimensionalen Modell eine Messung oder Metrik

Faktentabelle: Eine Tabelle, die Messungen oder Metriken im Zusammenhang mit einem bestimmten Ereignis enthält

Fremdschlüssel: Ein Feld innerhalb einer Datenbanktabelle, das ein Primärschlüssel in einer anderen Tabelle ist (siehe Primärschlüssel)

Fragmentierte Daten: Daten, die in viele Teile zerlegt sind, die nicht zusammen gespeichert werden, häufig aufgrund der häufigen Verwendung der Daten oder des Erstellens, Löschens oder Änderns von Dateien

Funktionale Programmiersprache: Eine Programmiersprache, die auf Funktionen basiert

G

Google DataFlow: Ein serverloser Datenverarbeitungsdienst, der Daten aus der Quelle liest, sie umwandelt und am Zielort schreibt

ICH

Index: Ein organisatorisches Tag, das zum schnellen Auffinden von Daten in einem Datenbanksystem verwendet wird

Fachleute für Informationstechnologie: Personen, die Hardware- und Softwarelösungen testen, installieren, reparieren, aktualisieren und warten

Interpretierte Programmiersprache: Eine Programmiersprache, die einen Interpreter, normalerweise ein anderes Programm, verwendet, um codierte Anweisungen zu lesen und auszuführen

Iteration: Das wiederholte Wiederholen eines Vorgangs, um dem gewünschten Ergebnis immer näher zu kommen

K

Key Performance Indicator (KPI): Ein quantifizierbarer Wert, der eng mit der Geschäftsstrategie verknüpft ist und dazu dient, den Fortschritt in Richtung eines Ziels zu verfolgen

L

Logische Datenmodellierung: Darstellung verschiedener Tabellen im physischen Datenmodell

M

Metrik: Ein einzelner, quantifizierbarer Datenpunkt, der zur Leistungsbewertung verwendet wird

Ö

Objektorientierte Programmiersprache: Eine Programmiersprache, die auf Datenobjekten basiert

OLAP-System (Online Analytical Processing): Ein Tool, das neben der Verarbeitung auch für die Analyse optimiert wurde und Daten aus mehreren Datenbanken analysieren kann

OLTP-Datenbank (Online Transaction Processing): Ein Datenbanktyp, der für die Datenverarbeitung statt für die Analyse optimiert wurde

Optimierung: Maximierung der Geschwindigkeit und Effizienz beim Datenabruf, um eine hohe Datenbankleistung sicherzustellen

P

Portfolio: Eine Sammlung von Materialien, die mit potenziellen Arbeitgebern geteilt werden können

Primärschlüssel: Ein Bezeichner in einer Datenbank, der auf eine Spalte oder eine Gruppe von Spalten verweist, in der jede Zeile jeden Datensatz in der Tabelle eindeutig identifiziert (siehe Fremdschlüssel).

Projektmanager: Eine Person, die sich um die täglichen Schritte, den Umfang, den Zeitplan, das Budget und die Ressourcen eines Projekts kümmert

Projektsponsor: Eine Person, die die Gesamtverantwortung für ein Projekt trägt und die Kriterien für seinen Erfolg festlegt

Python: Eine universelle Programmiersprache

Q

Abfrageplan: Eine Beschreibung der Schritte, die ein Datenbanksystem durchführt, um eine Abfrage auszuführen

R

Ressourcen: Die zur Verwendung in einem Datenbanksystem verfügbaren Hardware- und Softwaretools

Antwortzeit: Die Zeit, die eine Datenbank benötigt, um eine Benutzeranfrage abzuschließen

Zeilenbasierte Datenbank: Eine Datenbank, die nach Zeilen organisiert ist

S

Getrennte Speicher- und Computersysteme: Datenbanken, in denen Daten remote gespeichert werden und relevante Daten lokal zur Analyse gespeichert werden

Single-Homed-Datenbank: Datenbank, in der alle Daten am selben physischen Ort gespeichert sind

Schneeflockenschema: Eine Erweiterung eines Sternschemas mit zusätzlichen Dimensionen und häufig auch Unterdimensionen

Sternschema: Ein Schema, das aus einer Faktentabelle besteht, die auf eine beliebige Anzahl von Dimensionstabellen verweist

Strategie: Ein Plan zum Erreichen eines Ziels oder zum Erreichen eines gewünschten zukünftigen Zustands

Themenorientiert: Mit bestimmten Bereichen oder Abteilungen eines Unternehmens verbunden

Systemanalytiker: Eine Person, die Möglichkeiten zur Gestaltung, Implementierung und Weiterentwicklung von Informationssystemen identifiziert, um sicherzustellen, dass diese zur Erreichung von Geschäftszielen beitragen

Systemsoftwareentwickler: Eine Person, die Anwendungen und Programme für die in Organisationen verwendeten Backend-Verarbeitungssysteme entwickelt

T

Taktik: Eine Methode, die verwendet wird, um einen Erfolg zu ermöglichen

Zieltabelle: Der vorgegebene Ort, an den Pipeline-Daten gesendet werden, damit darauf reagiert werden kann

Durchsatz: Die Gesamtfähigkeit der Hardware und Software der Datenbank, Anfragen zu verarbeiten

Übertragbare Fähigkeit: Eine Fähigkeit oder Kompetenz, die von einem Job auf einen anderen übertragen werden kann

IN

Vanity-Metrik: Datenpunkte, die andere beeindrucken sollen, aber keinen Hinweis auf die tatsächliche Leistung geben und daher keine aussagekräftigen geschäftlichen Erkenntnisse liefern können

IN

Arbeitslast: Die Kombination aus Transaktionen, Abfragen, Data-Warehousing-Analysen und Systembefehlen, die zu einem bestimmten Zeitpunkt vom Datenbanksystem verarbeitet werden

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats auf Datenintegrität

Video 74

Willkommen zurück. In diesem Video besprechen wir die Datenintegrität und einige Risiken, denen Sie als Datenanalyst ausgesetzt sein könnten. Eine aussagekräftige Analyse hängt von der Integrität der Daten ab. Wenn die von Ihnen verwendeten Daten in irgendeiner Weise kompromittiert werden, ist Ihre Analyse nicht so aussagekräftig, wie sie sein sollte. Unter Datenintegrität versteht man die Genauigkeit, Vollständigkeit, Konsistenz und Vertrauenswürdigkeit von Daten während ihres gesamten Lebenszyklus. Das hört sich vielleicht nach vielen Qualitäten an, denen die Daten gerecht werden müssen. Aber glauben Sie mir, es lohnt sich, sie alle zu prüfen, bevor Sie mit der Analyse fortfahren. Andernfalls könnte Ihre Analyse falsch sein, nicht weil Sie etwas falsch gemacht haben, sondern weil die Daten, mit denen Sie gearbeitet haben, von vornherein falsch waren. Wenn die Datenintegrität gering ist, kann dies vom Verlust eines einzelnen Pixels in einem Bild bis hin zu einer falschen medizinischen Entscheidung führen. In manchen Fällen kann ein einziges fehlendes Teil dazu führen, dass alle Ihre Daten unbrauchbar werden. Die Datenintegrität kann auf viele verschiedene Arten gefährdet werden. Es besteht die Möglichkeit, dass Daten jedes Mal kompromittiert werden, wenn sie repliziert, übertragen oder auf irgendeine Weise manipuliert werden. Bei der Datenreplikation handelt es sich um den Prozess der Speicherung von Daten an mehreren Orten. Wenn Sie Daten zu unterschiedlichen Zeiten an verschiedenen Orten replizieren, besteht die Möglichkeit, dass Ihre Daten nicht synchron sind. Diesen Daten mangelt es an Integrität, da verschiedene Personen möglicherweise nicht dieselben Daten für ihre Ergebnisse verwenden, was zu Inkonsistenzen führen kann. Es gibt auch das Problem der Datenübertragung, bei der Daten von einem Speichergerät in den Speicher oder von einem Computer auf einen anderen kopiert werden. Wenn Ihre Datenübertragung unterbrochen wird, erhalten Sie möglicherweise einen unvollständigen Datensatz, der für Ihre Anforderungen möglicherweise nicht nützlich ist. Bei der Datenmanipulation werden die Daten geändert, um sie besser zu organisieren und leichter lesbar zu machen. Datenmanipulation soll den Datenanalyseprozess effizienter machen, aber ein Fehler während des Prozesses kann diese Effizienz beeinträchtigen. Schließlich können Daten auch durch menschliches Versagen, Viren, Malware, Hacking und Systemausfälle kompromittiert werden, was zu noch mehr Kopfschmerzen führen kann. Ich werde hier aufhören. Das sind genug potenziell schlechte Nachrichten, die man verdauen muss. Kommen wir zu einigen möglicherweise guten Nachrichten. Und bei vielen Unternehmen kümmert sich das Data-Warehouse- oder Data-Engineering-Team um die Gewährleistung der Datenintegrität. Als nächstes erfahren wir, wie man als Datenanalyst die Datenintegrität überprüft. Aber seien Sie versichert, dass normalerweise auch jemand anderes hinter Ihnen steht. Nachdem Sie herausgefunden haben, mit welcher Art von Daten Sie arbeiten, ist es wichtig, vor der Analyse noch einmal zu überprüfen, ob Ihre Daten vollständig und gültig sind. Dadurch wird sichergestellt, dass Ihre Analyse und eventuellen Schlussfolgerungen korrekt sind. Die Überprüfung der Datenintegrität ist ein wichtiger Schritt bei der Verarbeitung Ihrer Daten, um sie für die Analyse vorzubereiten, unabhängig davon, ob Sie oder jemand anderes in Ihrem Unternehmen dies durchführt. In Kürze erfahren Sie noch mehr über Datenintegrität. Bis bald.

Überprüfen Sie den Inhalt des Google Data Analytics-Zertifikats zu Metadaten

Video 75

Nachdem Sie nun die verschiedenen Möglichkeiten zum Organisieren von Daten in einer Datenbank verstanden haben, sprechen wir darüber, wie Sie diese Daten beschreiben können. In diesem Video beginnen wir mit der Untersuchung von Metadaten, einem sehr wichtigen Aspekt der Datenbankverwaltung. Metadaten sind jedoch ein abstraktes Konzept. Beginnen wir mit einem einfachen, alltäglichen Beispiel. Wussten Sie, dass jedes Mal, wenn ein Foto mit einem Smartphone aufgenommen wird, automatisch Daten erfasst und in diesem Foto gespeichert werden? Schau mal. Wählen Sie ein beliebiges Foto auf Ihrem Computer aus. Hier ist eine süße Aufnahme der Hunde meiner Freundin Rudy und Matilda. Klicken Sie auf Ihrem Foto mit der rechten Maustaste auf „Informationen“ oder „Eigenschaften“.
Video abspielen, beginnend bei ::41 und dem Transkript folgen0:41
Dadurch erhalten Sie die Metadaten des Fotos, die Ihnen Auskunft über den Dateityp, das Datum und die Uhrzeit der Aufnahme, den geografischen Standort bzw. Ort der Aufnahme, die Art des Geräts, mit dem das Foto aufgenommen wurde, und vieles mehr geben können mehr. Ziemlich erstaunlich, oder? Hier ist ein weiteres Beispiel. Jedes Mal, wenn Sie eine E-Mail senden oder empfangen, werden Metadaten direkt zusammen mit dieser Nachricht gesendet. Sie finden es, indem Sie auf „Original anzeigen“ oder „Nachrichtendetails anzeigen“ klicken.
Video abspielen, beginnend bei :1:13 und dem Transkript folgen1:13
Zu den Metadaten einer E-Mail-Nachricht gehören der Betreff, der Absender, der Adressat sowie das Datum und die Uhrzeit des Versands. Die Metadaten wissen sogar, wie schnell sie zugestellt wurden, nachdem der Absender auf „Senden“ geklickt hat. Metadaten sind Informationen, die zur Beschreibung der Daten verwendet werden, die beispielsweise in einem Foto oder einer E-Mail enthalten sind. Bedenken Sie, dass Metadaten nicht die Daten selbst sind. Stattdessen handelt es sich um Daten über Daten. Bei der Datenanalyse helfen Metadaten Datenanalysten, den Inhalt der Daten in einer Datenbank zu interpretieren. Deshalb sind Metadaten bei der Arbeit mit Datenbanken so wichtig. Es sagt einem Analysten, worum es in den Daten geht. Dadurch ist es möglich, die Daten zu nutzen, Probleme zu lösen und datengesteuerte Entscheidungen zu treffen. Als Datenanalyst werden Sie auf drei gängige Arten von Metadaten stoßen: beschreibende, strukturelle und administrative. Beschreibende Metadaten sind Metadaten, die ein Datenelement beschreiben und zu deren späterer Identifizierung verwendet werden können. Die beschreibenden Metadaten eines Buchs in einer Bibliothek würden beispielsweise den Code enthalten, den Sie auf dem Buchrücken sehen, eine sogenannte eindeutige International Standard Book Number, auch ISBN genannt.
Video abspielen, beginnend bei :2:27 und dem Transkript folgen2:27
Es würde auch den Autor und den Titel des Buches enthalten. Als nächstes folgen strukturelle Metadaten, also Metadaten, die angeben, wie ein Datenelement organisiert ist und ob es Teil einer oder mehrerer Datensammlungen ist. Gehen wir zurück in die Bibliothek. Ein Beispiel für Strukturdaten wäre die Zusammensetzung der Seiten eines Buches, um verschiedene Kapitel zu erstellen. Es ist wichtig zu beachten, dass strukturelle Metadaten auch die Beziehung zwischen zwei Dingen verfolgen. Es kann uns beispielsweise zeigen, dass das digitale Dokument eines Buchmanuskripts tatsächlich die Originalversion eines jetzt gedruckten Buches war. Schließlich haben wir administrative Metadaten. Administrative Metadaten sind Metadaten, die die technische Quelle eines digitalen Assets angeben. Als wir uns die Metadaten im Foto ansahen, handelte es sich um administrative Metadaten. Es zeigte Ihnen den Dateityp, das Datum und die Uhrzeit der Aufnahme und vieles mehr. Hier ist ein letzter Gedanke, der Ihnen helfen soll, Metadaten zu verstehen. Wenn Sie auf dem Weg in die Bibliothek sind, um ein Buch auszusuchen, können Sie den Titel, den Autor, die Länge und die Anzahl der Kapitel eines Buchs recherchieren. Das sind alles Metadaten, die Ihnen viel über das Buch verraten können. Aber man muss das Buch tatsächlich lesen, um zu wissen, worum es geht. Ebenso können Sie sich über Datenanalysen informieren, aber Sie müssen diesen Kurs absolvieren, um das Google Data Analytics-Zertifikat zu erhalten. Machen Sie also weiter, um diese neue Perspektive zu gewinnen.

Willkommen zu Modul 4

Video

Hallo, es ist toll, wieder bei dir zu sein! Ich bin Anita, Senior Business Intelligence Analyst bei Google, und ich bin zurück, um den nächsten Teil Ihres Abschlussprojekts zu besprechen und wie Sie es bei Ihrer Jobsuche nutzen können. Sind Sie bereit, mit der Jobsuche im BI-Bereich zu beginnen? Der erste Schritt besteht darin, ein Portfolio und einen Lebenslauf zu erstellen, die Ihre Fähigkeiten zeigen. Ihr Portfolio besteht aus einer Sammlung von Materialien, mit denen Sie Ihre Fähigkeiten und Ihren Ansatz zur Lösung von BI-Problemen präsentieren können. Eine Möglichkeit, Ihr Portfolio aufzubauen, besteht darin, Projekte abzuschließen, die zeigen, was Sie gelernt haben – wie das Abschlussprojekt dieses Programms! Dieses Abschlussprojekt ist auch eine wirklich wertvolle Gelegenheit, Ihre Interviewfähigkeiten zu entwickeln! Wenn potenzielle Arbeitgeber Sie als Kandidaten beurteilen, fragen sie möglicherweise nach konkreten Beispielen dafür, wie Sie in der Vergangenheit Herausforderungen gemeistert haben. Sie können Ihr Portfolio dazu nutzen, reale Probleme zu besprechen, die Sie gelöst haben. Darüber hinaus werden Sie möglicherweise von einigen Arbeitgebern gebeten, für ein Vorstellungsgespräch eine weitere Fallstudie auszufüllen. Wenn Sie etwas Übung darin haben, Ihre eigenen Fallstudien zu erstellen, sind Sie viel besser auf diese Interviews vorbereitet. Sie haben sich bereits mit Erfahrungslernen oder der Idee des Verstehens durch Handeln beschäftigt. Dieses Abschlussprojekt ist auch eine großartige Gelegenheit, wirklich herauszufinden, wie Unternehmen BI jeden Tag nutzen, Ihre neuen Fähigkeiten zu üben und Ihr BI-Wissen wirklich unter Beweis zu stellen. Um das Abschlussprojekt abzuschließen, werden Ihnen weitere Details zum Business Case präsentiert. Anschließend verwenden Sie die von Ihnen fertiggestellten wichtigen BI-Dokumente, um ein Pipelinesystem zu erstellen, das Daten an Berichtstabellen liefert. Später können Sie diese Tabellen verwenden, um Dashboards zu entwerfen, um Erkenntnisse mit Stakeholdern zu teilen. Wenn Sie dieses Projekt abschließen, verfügen Sie über eine fertige Fallstudie, die Sie Ihrem Portfolio hinzufügen können. Außerdem verfügen Sie über eine Dokumentation der Schritte, die Sie auf diesem Weg unternommen haben, und können diese nutzen, um künftigen Personalmanagern Ihre Arbeit zu erläutern. Zu diesem Zeitpunkt haben Sie wahrscheinlich bereits einen Teil des Abschlussprojekts abgeschlossen. Jetzt sind Sie mit dem nächsten Kurs dieses Programms fast fertig, was bedeutet, dass Sie alles wissen, was Sie brauchen, um die nächste Phase in Angriff zu nehmen. Bereit? Dann legen wir los!

Setzen Sie Ihr Abschlussprojekt fort

Video 77

In diesem Kurs haben Sie gelernt, wie Datenbanksysteme entworfen werden, wie Sie BI-Tools wie Pipelines und ETL-Systeme erstellen und wie Sie diese optimieren, um die Leistung zu maximieren. Jetzt ist es Zeit für einen spannenden nächsten Schritt: All dies in Ihr Abschlussprojekt umzusetzen. Im vorherigen Kurs wurden Ihnen das Projektszenario und wichtige Details zum Fall vorgestellt. Nebenbei haben Sie Stakeholder-Anforderungen, Projektanforderungen und Strategiedokumente entwickelt. Nachdem Sie nun diese wichtigen Elemente des Projekts festgelegt haben, ist es an der Zeit, über die Daten nachzudenken. In diesem Teil des Kurses beginnen Sie mit der Arbeit mit einer Datenbank, um BI-Tools zu erstellen, die wichtige Prozesse wie das Verschieben und Transformieren von Daten automatisieren, bevor Sie sie zur Berichterstellung in Ihre Zieltabellen einlesen. Als nächstes werden Sie auf die Projektdaten zugreifen, das Entwurfsmuster für Ihr Datenbanksystem erkunden, die Arbeit Ihres Teams beobachten, um dessen Anforderungen zu ermitteln, und die erforderlichen Metriken und Fakten verwenden, um eine Pipeline aufzubauen, die diese Anforderungen erfüllt. Diese Prozesse ermöglichen es Ihrem Team, sich auf andere Aspekte seiner täglichen Arbeit zu konzentrieren, und verschieben und transformieren Ihre Daten für die sofortige Verwendung in Berichten und Dashboards. Diese Berichte und Dashboards geben Ihren Stakeholdern aktuelle Einblicke und ermöglichen es ihnen, aus den Daten eigene Antworten zu gewinnen. Dieser Teil des Abschlussprojekts ist eine großartige Gelegenheit, potenziellen Arbeitgebern zu zeigen, dass Sie genau das können. Und denken Sie daran: Die Entwicklung dieser Tools ist ein iterativer Prozess, sodass Sie sie weiter entwickeln und verbessern können, wenn Sie neue Ideen haben oder neue Dinge lernen.

Entdecken Sie Projektszenarien am Ende des Kurses 2

Überblick

Wenn Sie mit strukturiertem Denken an ein Projekt herangehen, werden Sie häufig feststellen, dass bestimmte Schritte in einer bestimmten Reihenfolge ausgeführt werden müssen. Die Abschlussprojekte im Google Business Intelligence-Zertifikat wurden unter diesem Gesichtspunkt konzipiert. Die in jedem Kurs vorgestellten Herausforderungen stellen einen einzelnen Meilenstein innerhalb eines gesamten Projekts dar, basierend auf den in diesem Kurs erlernten Fähigkeiten und Konzepten. 

Grafik, die die zweite Phase des Projekts beschreibt: Datenaufbereitung

Das Zertifikatsprogramm ermöglicht es Ihnen, aus verschiedenen Arbeitsplatzszenarien zu wählen, um die Abschlussprojekte abzuschließen: das Fahrradverleihunternehmen Cyclistic oder Google Fiber. Jedes Szenario bietet Ihnen die Möglichkeit, Ihre Fähigkeiten zu verfeinern und Artefakte zu erstellen, die Sie in einem Online-Portfolio auf dem Arbeitsmarkt teilen können. 

Unabhängig davon, für welches Szenario Sie sich entscheiden, erlernen Sie ähnliche Fähigkeiten, müssen jedoch für jeden Kurs mindestens ein Abschlussprojekt abschließen, um Ihr Google Business Intelligence-Zertifikat zu erhalten. Um ein zusammenhängendes Erlebnis zu gewährleisten, wird empfohlen, für jedes Abschlussprojekt das gleiche Szenario zu wählen. Wenn Sie beispielsweise das Szenario „Radfahren“ für Kurs 1 ausgewählt haben, empfehlen wir, dasselbe Szenario auch in Kurs 2 und 3 abzuschließen. Wenn Sie jedoch an mehr als einem Arbeitsplatzszenario interessiert sind oder sich eine größere Herausforderung wünschen, können Sie gerne mehr als ein Abschlussprojekt durchführen. Durch den Abschluss mehrerer Projekte erhalten Sie zusätzliche Übungen und Beispiele, die Sie potenziellen Arbeitgebern mitteilen können.

Kurs 2 Projektszenarien am Ende des Kurses

Fahrrad-Sharing

Radfahrer-Logo

Hintergrund: 

In diesem fiktiven Arbeitsplatzszenario hat sich das imaginäre Unternehmen Cyclistic mit der Stadt New York zusammengetan, um gemeinsam genutzte Fahrräder bereitzustellen. Derzeit gibt es in ganz Manhattan und den angrenzenden Bezirken Fahrradstationen. Kunden können an diesen Standorten Fahrräder mieten, um bequem zwischen den Stationen hin- und herzufahren. 

Szenario:

Sie sind ein neu eingestellter BI-Experte bei Cyclistic. Das Kundenwachstumsteam des Unternehmens erstellt einen Geschäftsplan für das nächste Jahr. Sie möchten verstehen, wie ihre Kunden ihre Fahrräder nutzen. Ihre oberste Priorität besteht darin, die Kundennachfrage an verschiedenen Bahnhofsstandorten zu ermitteln. Zuvor haben Sie Informationen aus Ihren Besprechungsnotizen gesammelt und wichtige Projektplanungsdokumente ausgefüllt. Jetzt sind Sie bereit für den nächsten Teil Ihres Projekts! 

Herausforderung für Kurs 2:

  • Verwenden Sie Projektplanungsdokumente, um wichtige Kennzahlen und Dashboard-Anforderungen zu identifizieren

  • Beobachten Sie Stakeholder in Aktion, um besser zu verstehen, wie sie Daten nutzen

  • Sammeln und kombinieren Sie die erforderlichen Daten

  • Entwerfen Sie Berichtstabellen, die auf Tableau hochgeladen werden können, um das endgültige Dashboard zu erstellen

Hinweis: Die Geschichte sowie alle dargestellten Namen, Charaktere und Vorfälle sind frei erfunden. Eine Identifizierung mit tatsächlichen Personen (lebend oder verstorben) ist nicht beabsichtigt oder sollte abgeleitet werden. Die in diesem Projekt geteilten Daten wurden für pädagogische Zwecke erstellt.

Google Fiber

Google Fiber lo

Hintergrund: 

Google Fiber versorgt Menschen und Unternehmen mit Glasfaser-Internet. Derzeit beantwortet das Kundendienstteam in seinen Callcentern Anrufe von Kunden in seinen etablierten Servicegebieten. In diesem fiktiven Szenario möchte das Team Trends bei wiederholten Anrufen untersuchen, um die Anzahl der Anrufe von Kunden zu reduzieren, damit ein Problem gelöst werden kann. 

Szenario:

Sie führen derzeit ein Vorstellungsgespräch für eine BI-Stelle im Callcenter-Team von Google Fibre. Im Rahmen des Interviewprozesses werden Sie gebeten, ein Dashboard-Tool zu entwickeln, das es ihnen ermöglicht, Trends bei wiederholten Anrufen zu erkunden. Das Team muss verstehen, wie oft Kunden nach ihrer ersten Anfrage den Kundendienst anrufen. Dies wird der Führung helfen, zu verstehen, wie effektiv das Team Kundenfragen beim ersten Mal beantworten kann. Zuvor haben Sie Informationen aus Ihren Besprechungsnotizen gesammelt und wichtige Projektplanungsdokumente ausgefüllt. Jetzt sind Sie bereit für den nächsten Teil Ihres Projekts! 

Herausforderung für Kurs 2:

  • Verwenden Sie Projektplanungsdokumente, um wichtige Kennzahlen und Dashboard-Anforderungen zu identifizieren

  • Erwägen Sie die besten Tools zur Ausführung Ihres Projekts

  • Sammeln und kombinieren Sie die erforderlichen Daten

  • Entwerfen Sie Berichtstabellen, die auf Tableau hochgeladen werden können, um das endgültige Dashboard zu erstellen

Die zentralen Thesen

In Kurs 2, „Der Weg zu Erkenntni