Folgen

  • Data & Analytics lernen - Die Datenblackbox im Financial
    Aug 28 2022

    Bei der Finanzdatenanalyse geht es darum, Zusammenhänge in Finanzdaten zu erkennen und zu erforschen, um bessere Entscheidungen zu treffen. Dazu werden häufig ausgefeilte statistische Techniken wie Regressionsanalysen und Zeitreihenanalysen eingesetzt. Sie kann aber auch mit einfachen Tools wie Excel durchgeführt werden. Die Datenanalyse kann zur Verbesserung einer Vielzahl von Entscheidungen in Finanzabteilungen eingesetzt werden, von der Preisgestaltung bis zum Risikomanagement. In vielen Fällen kann sie dazu beitragen, Probleme zu erkennen, die sonst unentdeckt bleiben würden. So kann die Datenanalyse beispielsweise aufzeigen, dass eine Finanzabteilung bei einer bestimmten Art von Ausgaben, wie z.B. Reisen, zu viel Geld ausgibt. Diese Informationen können dann genutzt werden, um Entscheidungen darüber zu treffen, wo die Kosten gesenkt werden sollen. Die Datenanalyse kann auch zur Verbesserung von Prognosemodellen verwendet werden. Wenn die Verkäufe eines Unternehmens beispielsweise saisonabhängig sind, kann die Datenanalyse dazu verwendet werden, die Muster in den Daten zu identifizieren und ein Modell zu entwickeln, das zukünftige Verkäufe vorhersagt. Diese Art der Analyse ist besonders in Finanzabteilungen wichtig, da genaue Prognosen für solide finanzielle Entscheidungen unerlässlich sind.

    Mehr anzeigen Weniger anzeigen
    13 Min.
  • Data & Analytics lernen - Data & Analytics in der Organisationsentwicklung
    Aug 17 2022

    Praktiker der Organisationsentwicklung haben die Bedeutung von Daten und Analysen für das Verständnis der Unternehmensleistung schon lange erkannt. In den letzten Jahren haben sich die Instrumente und Techniken, die den Praktikern zur Verfügung stehen, jedoch erheblich weiterentwickelt, so dass sich neue Möglichkeiten für die Nutzung von Daten zur Förderung des organisatorischen Wandels ergeben haben. Mit Hilfe von Daten und Analysen lassen sich nun potenzielle Verbesserungsbereiche ermitteln, die Ursachen von Organisationsproblemen verstehen und die Auswirkungen der vorgeschlagenen Änderungen messen. Infolgedessen wird die datengesteuerte Organisationsentwicklung als Mittel zur Leistungssteigerung immer beliebter. Durch die Nutzung von Daten und Analysen können Praktiker ihrer Arbeit ein neues Maß an Strenge und Objektivität verleihen, was letztlich zu einer besseren Entscheidungsfindung und einem höheren Erfolgsniveau führt.

    Mehr anzeigen Weniger anzeigen
    7 Min.
  • Data & Analytics lernen - Rassistische Voreingenommenheit von Maschinen
    Aug 16 2022

    Die Sorge wächst, dass die Systeme der künstlichen Intelligenz (KI), auf die immer häufiger zurückgegriffen wird, bestimmte Gruppen benachteiligen. Das liegt daran, dass die Daten, aus denen diese Systeme lernen, oft selbst voreingenommen sind, zum Beispiel aufgrund von Diskriminierungsmustern in der Vergangenheit. Wenn maschinelle Lernsysteme nicht sorgfältig überwacht werden, könnten sie diese Voreingenommenheit verstärken und sogar noch verschlimmern. Ein Gesichtserkennungssystem beispielsweise, das auf einem Datensatz mit überwiegend weißen Gesichtern trainiert wurde, wird schwarze Gesichter wahrscheinlich weniger genau erkennen. Dies könnte schwerwiegende Auswirkungen auf Bereiche wie die Strafverfolgung haben, wo KI-Systeme eingesetzt werden, um Entscheidungen darüber zu treffen, wer angehalten und durchsucht werden soll. Es besteht die Gefahr, dass diese Systeme bestehende soziale Ungleichheiten verschärfen, wenn sie nicht stärker zur Rechenschaft gezogen werden.

    Mehr anzeigen Weniger anzeigen
    10 Min.
  • Data & Analytics lernen - Framing-Prozess in der Unternehmensanalyse
    Aug 15 2022

    Der Framing-Prozess ist ein wichtiger Teil der Unternehmensanalyse. Er umfasst das Verstehen des Problems oder der Gelegenheit, die Definition der Ziele und Zielsetzungen und die Entwicklung eines Plans, um diese zu erreichen. Dieser Prozess trägt dazu bei, dass alle Beteiligten auf derselben Seite stehen und dass jeder den Projektumfang und den Zeitplan versteht. Ohne einen klaren Bezugsrahmen kann es schwierig sein, Entscheidungen zu treffen oder Maßnahmen zu ergreifen. Der Framing-Prozess ist daher ein wesentliches Instrument für Unternehmensanalysten.

    Mehr anzeigen Weniger anzeigen
    7 Min.
  • Data & Analytics lernen - Einstieg in die Verarbeitung natürlicher Sprache: NLP, NLU, und NLG
    Aug 14 2022

    Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Linguistik, der Informatik, der Informationstechnik und der künstlichen Intelligenz, das sich mit der Interaktion zwischen Computern und menschlichen (natürlichen) Sprachen befasst.

    NLP dient der Anwendung linguistischer Analyse und Wissensdarstellung auf Textdaten, um Aufgaben wie automatische Zusammenfassung, Übersetzung, Dialogmanagement, Textklassifizierung, Stimmungsanalyse, Erkennung benannter Entitäten, Themenmodellierung, Beziehungsextraktion und maschinelles Lesen durchzuführen. NLP kann für Anwendungen wie Chatbots, intelligente persönliche Assistenten (IPAs), die automatische Generierung von Untertiteln für Videos oder Bilder und die maschinelle Übersetzung verwendet werden.

    NLP-Algorithmen lassen sich grob in zwei Kategorien einteilen: regelbasierte Methoden und statistische Methoden. Regelbasierte Methoden basieren auf handgeschriebenen Regeln, die von Entwicklern oder Linguisten verfasst werden, während statistische Methoden auf Trainingsdaten beruhen, die mit linguistischen Informationen versehen sind. Beide Ansätze haben ihre eigenen Vor- und Nachteile; regelbasierte Methoden sind genauer, erfordern aber mehr Zeit und Aufwand bei der Entwicklung, während statistische Methoden weniger genau, aber einfacher zu entwickeln sind.

    NLU und NLG sind verwandte, aber unterschiedliche Teilbereiche des NLP. NLU befasst sich mit der Interpretation natürlichsprachlicher Eingaben, während NLG sich mit der Erzeugung natürlichsprachlicher Ausgaben befasst. NLU-Systeme nehmen unstrukturierte Eingaben wie freien Text auf und analysieren sie in strukturierte Darstellungen wie logische Formen oder Parse-Bäume. NLG-Systeme nehmen strukturierte Eingaben wie logische Formen oder Parse-Bäume entgegen und erzeugen entsprechende natürlichsprachliche Ausgaben. Sowohl NLU- als auch NLG-Systeme können entweder regelbasiert oder statistisch sein.

    Morphologie, Syntax, Semantik und Pragmatik sind die wichtigsten linguistischen Aspekte im NLP. Die Morphologie ist die Lehre von der Wortbildung, einschließlich der Flexion (das Hinzufügen von Endungen zu Wortstämmen, um die grammatische Funktion anzuzeigen) und der Derivation (die Bildung neuer Wörter aus bestehenden). Syntax ist die Lehre von der Satzstruktur, einschließlich der Reihenfolge der Wörter innerhalb eines Satzes. Semantik ist die Lehre von der Bedeutung, einschließlich der Wortbedeutung (lexikalische Semantik) und der Satzbedeutung (kompositorische Semantik). Die Pragmatik befasst sich mit der Frage, wie der Kontext die Bedeutung beeinflusst.

    Die NLP-Forschung wurde durch eine Reihe verschiedener Ziele motiviert, darunter die Entwicklung besserer Methoden zur Verarbeitung natürlichsprachlicher Daten, die Entwicklung von Systemen, die automatisch natürlichsprachliche Texte verstehen oder erzeugen können, die Verbesserung der Kommunikation zwischen Mensch und Computer, die Unterstützung bei der Entwicklung künstlicher Intelligenz und die Modellierung von Aspekten der menschlichen Kognition.

    Mehr anzeigen Weniger anzeigen
    8 Min.
  • Data & Analytics lernen - Eine Einführung in die Interpretation der Diskriminanzanalyse
    Aug 14 2022

    Die Diskriminanzanalyse ist eine Klassifizierungsmethode, bei der eine lineare Kombination von Merkmalen verwendet wird, um eine Entscheidungsgrenze zu finden, die zur Klassifizierung neuer Datenpunkte verwendet werden kann. Die Koeffizienten der Linearkombination werden so bestimmt, dass die Grenze den Abstand zwischen den Mittelwerten der beiden Klassen maximiert und gleichzeitig die klasseninterne Varianz minimiert. Dies führt zu einer Grenze, die so nah wie möglich an beiden Klassen liegt und gleichzeitig so weit wie möglich von jedem Klassenmittelwert entfernt ist. Die aus der Diskriminanzanalyse gewonnene Entscheidungsgrenze kann verwendet werden, um Schätzungen der Klassifizierungsgenauigkeit für neue Datensätze zu erhalten. Die Diskriminanzanalyse ist auch für die explorative Datenanalyse nützlich, da sie dabei helfen kann, herauszufinden, welche Merkmale für die Unterscheidung am wichtigsten sind.

    Mehr anzeigen Weniger anzeigen
    3 Min.
  • Data & Analytics lernen - Datengesteuerte Vision
    Aug 13 2022

    Daten waren schon immer ein wichtiger Bestandteil des Geschäftslebens, aber ihre Bedeutung nimmt weiter zu. In der Vergangenheit wurden Daten vor allem dazu verwendet, die betriebliche Leistung zu verfolgen und strategische Entscheidungen zu treffen. Heute jedoch werden Daten für alle Aspekte des Geschäfts genutzt, von der Produktentwicklung über das Marketing bis hin zum Kundendienst. Dieser Wandel wird durch die Fortschritte in der Datenanalyse vorangetrieben, die Unternehmen neue Einblicke in ihre Kunden und Abläufe verschafft. Infolgedessen werden Unternehmen immer datengesteuerter und nutzen Daten als Grundlage für alle Entscheidungen, die sie treffen. Diese Entwicklung wird sich in Zukunft fortsetzen, da Daten immer allgegenwärtiger und ausgefeilter werden. Erfolgreich werden die Unternehmen sein, die datengestützte Entscheidungen treffen und diese zu ihrem Vorteil nutzen.

    Mehr anzeigen Weniger anzeigen
    5 Min.
  • Data & Analytics lernen - Anforderungsdefinition für eine Datenpipeline
    Aug 13 2022

    Die Definition von Anforderungen für eine Datenpipeline kann ein komplexes Unterfangen sein, da viele Faktoren zu berücksichtigen sind. Zunächst ist es wichtig, die Datenquellen zu ermitteln, die in der Pipeline verwendet werden sollen. Dazu können Datenbanken, Protokolldateien, Daten aus sozialen Medien usw. gehören. Sobald die Datenquellen identifiziert sind, muss im nächsten Schritt festgelegt werden, wie die Daten auf ihrem Weg durch die Pipeline umgewandelt und verarbeitet werden sollen. Dies kann verschiedene Schritte wie Bereinigung, Anreicherung, Aggregation usw. umfassen. Schließlich müssen auch die Anforderungen an die Ausgabe der Pipeline definiert werden. Dazu gehört die Festlegung des Formats der Daten, die von der Pipeline generiert werden (z. B. CSV, JSON, XML), sowie aller anderen Anforderungen wie Leistung, Sicherheit usw. Durch sorgfältige Planung und Definition im Vorfeld ist es möglich, eine robuste und skalierbare Datenpipeline zu erstellen, die alle erforderlichen Anforderungen erfüllt.

    Mehr anzeigen Weniger anzeigen
    6 Min.