Logo weiterlesen.de
Deep learning, artificial intelligence, target group identification, indoor analytics

Stefan Luppold (Hrsg.)

DEEP LEARNING, ARTIFICIAL INTELLIGENCE, TARGET GROUP IDENTIFICATION, INDOOR ANALYTICS

MANAGEMENT-ANSÄTZE FÜR DIE LIVE-KOMMUNIKATION

Stefan Luppold (Hrsg.)

DEEP LEARNING, ARTIFICIAL INTELLIGENCE, TARGET GROUP IDENTIFICATION, INDOOR ANALYTICS

MANAGEMENT-ANSÄTZE FÜR DIE LIVE-KOMMUNIKATION

Vorwort des Herausgebers

Dieser fünfte Band der Studienreihe Messemanagement ist erneut mit dem Anspruch versehen, eine Quelle der Inspiration, der Anregung, des Weiterdenkens zu sein. Ich lade Sie deshalb herzlich ein, alle vier – ausgezeichneten – Beiträge zu nutzen, als Update des eigenen Wissens und als Impuls für den kritischen Blick auf das eigene Tun. Insbesondere das in die Zukunft gerichtete!

Die Frage darf gestellt werden, woher denn Veränderungen kommen. Ich erinnere mich an die Dualität, die mir mein Professor für Fertigungstechnik einmal erläutert hat:

Entweder haben wir neue Werkzeuge zur Verfügung, die uns weitere Möglichkeiten eröffnen; oder wir haben neue Konzepte erarbeitet, für die wir dann noch die erforderlichen Werkzeuge entwickeln müssen. Das Eine treibt das Andere – und umgekehrt.

Die vier Beiträge der jungen Akademiker mit Messe-, Kongress- und EventExpertise bewegen sich in beiden Ansätzen. Sie nehmen technologische Innovationen auf und übertragen die Anwendung auf die Veranstaltungswirtschaft. Erfrischend ist dabei, dass sie die gelernten Grenzen überschreiten, tradiertes Verhalten in Frage stellen. Damit tauschen sie nicht einfach das Werkzeug aus, sondern denken wirklich neu.

Beispielhaft zu lesen ist das in dem Beitrag von Sofia Zindler: Indoor Analytics. Sie überlegt, inwieweit die – nun ziemlich exakt messbare – Besucherfrequenz einen Einfluss auf die Quadratmeterpreise haben kann. Für viele BranchenExperten ein No-Go, nun aber neu in die Diskussion gebracht. Was in einem anderen Kontext – Standorte in Shopping Malls etwa – schon lange üblich ist, kann auch für die Veranstaltungswirtschaft neu gedacht werden.

Das gilt synonym für die Beiträge von Doreen Richter und Marie-Christin Gerken. Wir sollten nicht nur, sondern müssen die Rolle von Künstlicher Intelligenz (KI) in eine Langfrist-Perspektive aufnehmen. Auch wenn das heute noch utopisch anmuten mag: natürlichsprachliche Systeme und Biometrie-Tools wandern aus der Science-Fiction-Schublade in den Reality-Container!

In einem meiner ersten Bücher, das ich gemeinsam mit Florian Bernard geschrieben haben, thematisierten wir das mobile Marketing auf Messen – entlang der Frage, wie die zunehmende Zahl an digitalen Endgeräten (insbesondere Mobiltelefone) sinnvoll genutzt werden kann. Wir zeigten auf, dass Navigation und Terminmanagement möglich sind, ebenso eine spielerische Nutzung mit Exponaten bzw. Informationsdisplays am Messestand. Zu jener Zeit waren diese Gedanken so weit weg von dem traditionellen Bild eines Besuchers, der über eine Messe schlendert und sich mehr zufällig als geplant für den einen oder anderen Aussteller interessiert, dass wir heftig von der „herrschenden Meinung“ kritisiert wurden. Nur wenige Jahre später hatte man die Notwendigkeit erkannt, solche mobilen Strategien umzusetzen, im Sinne einer weiteren Steigerung des Messe-Erfolgs.

Felix Urban hat, ebenfalls mit einem strategischen Blick, ein Modell entwickelt. Die Gewinnung von Besucherzielgruppen bleibt ein wesentliches Ziel, das in Zeiten von raschen Veränderungen ein wenig Konstanz schaffen kann. Übertragbar, daher wie die anderen drei Beiträge auch, auf andere Situationen, nutzbar in einem anderen Kontext.

Den vier Autorinnen und Autoren danke ich herzlich dafür, dass sie uns ihre Erkenntnisse zur Verfügung stellen. Dies gilt auch für die Unternehmen, die in gewisser Art und Weise die Laborumgebung der jungen Forscher waren; sie haben dazu beigetragen, die theoretischen Bausteine mit wertiger Praxis zu verbinden. Neben den eigentlichen Inhalten der Beiträge lohnt immer ein Blick auf die Struktur, den Aufbau. Für weiterführende Details selbstverständlich auch auf die aufgeführte, verwendete Literatur.

Erneut nutze ich das Vorwort – wie schon bei den Bänden 1 bis 4 – um dem FAMA Fachverband Messen und Ausstellungen e.V. zu danken. Durch den im Jahr 2013 zum ersten Mal ausgelobten Messe-Impuls-Preis entstand die Idee, die ausgezeichneten Einreichungen den Fach- und Führungskräften der Messewirtschaft und vielen weiteren Interessierten zugänglich zu machen; dies schuf so ein Potpourri aus inzwischen rund 25 Fachbeiträgen, die man im vorliegenden Band sowie den bereits erschienenen Strategischer Erfolg durch User Experience und Mixed Reality, Stakeholder im Fokus, Innovation und Change sowie Agilität und Transformation nachlesen kann. In vorbildlicher Konstanz zeigen sich Vorstand und Geschäftsführung damit als dem Branchen-Nachwuchs verpflichtet!

Danke auch an die Hamburg Messe und Congress GmbH, deren Unterstützung die Veröffentlichung dieses Bandes ermöglicht hat.

Und schließlich ein Dankeschön an den Verlag, der mit seinem Support die Autorinnen und Autoren vorbildlich begleitet hat.

Johann Wolfgang von Goethe hat gesagt:

Mit dem Wissen wächst der Zweifel.

Begreift man Zweifel als Anstoß für Weiterentwicklung, Verbesserung und Fortschritt, dann hilft der Wissenserwerb aus diesem Buch sicherlich zum Erkenntnisgewinn!

Prof. Stefan Luppold

IMKEM Institut für Messe-, Kongress- und Eventmanagement

Inhaltsübersicht

Kurzfassungen

Einsatzmöglichkeiten von Deep-Learning zur Verbesserung des Besuchererlebnisses auf Messen

An analysis of the influences of Artificial Intelligence and its potential for application in the event sector
Development of recommendations for action

Modellentwicklung zur strategischen Gewinnung relevanter Besucherzielgruppen für Investitionsgütermessen
Ein marketingbezogener Ansatz aus Veranstaltersicht am Beispiel der Hannover Messe

Der Einsatz von Indoor Analytics bei Messegesellschaften in Deutschland
Entwicklung von Use-Cases und deren Bewertung unter Bezugnahme von Expertengesprächen und Befragungen

Die Autoren

Literaturhinweise: Studienreihe Messemanagement Band 1 bis Band 4

Kurzfassungen

Einsatzmöglichkeiten von Deep-Learning zur Verbesserung des Besuchererlebnisses auf Messen

Künstliche Intelligenz wirkt aktuell in nahezu allen Branchen als Treiber für Entwicklung und Innovation. Möglich gemacht hat diesen Hype eine besondere Facette der Künstlichen Intelligenz: Das Deep Learning. Anwendung findet Deep Learning etwa bei Smart Speakern, dem autonomen Fahren oder in der medizinischen Diagnostik von Krankheiten – Technologien, die erst durch diese Art der Künstlichen Intelligenz möglich sind.

Die Autorin stellt daher die Frage, welche Anwendungsmöglichkeiten von Deep Learning es bei Messegesellschaften gibt. Unter Berücksichtigung von Voraussetzungen und Herausforderungen betrachtet sie speziell, wie das Besuchererlebnis auf Messen durch Deep Learning verbessert werden kann und führt in diesem Rahmen Experteninterviews durch. Als Ergebnis werden mehr als zehn konkrete Anwendungsmöglichkeiten entlang der gesamten Customer Journey eines Messebesuchers erkannt und erläutert. Des Weiteren werden Voraussetzungen und Herausforderungen beleuchtet, mit denen sich Messeveranstalter auseinandersetzen sollten, die über eine Anwendung von Deep Learning nachdenken.

Die Autorin

Marie-Christin Gerken erlangte 2019 mit ihrer Abschlussarbeit den Bachelor of Arts im Studiengang Messe-, Kongress- und Eventmangement an der DHBW Ravensburg. Mit dieser Arbeit wurde sie für den Deutschen Forschungspreis für Live Communication 2019 nominiert, mit dem der Kommunikationsverband FAMAB und die TU Chemnitz jährlich exzellente studentische Abschlussarbeiten im Bereich der Live Communication auszeichnen.

An analysis of the influences of Artificial Intelligence and its potential for application in the event sector

Development of recommendations for action

Alle reden über Künstliche Intelligenz, die Zeitungen und Magazine überschlagen sich mit Artikeln zu diesem Thema. Aber was genau ist Künstliche Intelligenz und welche Anwendungsformen vereinen sich unter dem Begriff? Welche Vorteile und Hürden werden in diesem Zusammenhang diskutiert? Wenn es wahr ist, dass KI Auswirkungen auf alle Wirtschaftssektoren haben wird, wie kann und sollte sich die Veranstaltungsbranche darauf vorbereiten und das Potenzial dieser Technologie nutzen? Um die Chance nicht zu verpassen und für die Zukunft gut vorbereitet zu sein sowie den sich verändernden Bedingungen und Erwartungen anzupassen, prüft diese Master Thesis das Themengebiet der Künstlichen Intelligenz und deren Anwendbarkeit, Stärken und Schwächen speziell für die Veranstaltungsbranche und deren Hauptakteure. Diese Untersuchung soll die Branche ermutigen, sich mit KI auseinanderzusetzen und sie als Komponente der zukünftigen Geschäftsmodelle zu verstehen. Weiterhin soll die Befürchtung genommen werden, dass KI als Bedrohung der Menschheit gesehen wird, sondern vielmehr Möglichkeiten sowie Handlungsempfehlungen in Bezug auf die Implementierung von Künstlicher Intelligenz als effiziente Zusammenarbeit von Menschen und Maschinen aufzeigen.

Die Autorin

Doreen Richter hat mit dieser Arbeit ihr Masterstudium mit dem Schwerpunkt Business Administration an der Fernuniversität IUBH abgeschlossen und erhielt dafür den zweiten Platz beim Messe-Impuls-Preis 2019.

Modellentwicklung zur strategischen Gewinnung relevanter Besucherzielgruppen für Investitionsgütermessen

Ein marketingbezogener Ansatz aus Veranstaltersicht am Beispiel der Hannover Messe

Die Besucherzahlen überregionaler Messeveranstaltungen in Deutschland stagnieren seit Jahren, ehemalige Riesen ächzen unter dem Gewicht des Wettbewerbs außer- und innerhalb der Branche und dennoch liegt, führt man ein tiefgreifenderes Gespräch mit den zentralen Playern der Messewirtschaft, zumeist keine wirklich strategische Verankerung des Themas Besuchergewinnung vor – ganz zu schweigen von einer eigenen Lobby dieser doch so wichtigen Gruppe im Unternehmen. Dies verwundert, da doch eigentlich das Kernziel von Messen sein sollte, die relevanten Aussteller- und Besucherzielgruppen zusammenzubringen, oder?

Der Autor hat durch die Zusammenführung einer quantitativen sowie einer qualitativen Erhebung einige wesentliche Punkte zur grundsätzlichen Verankerung bzw. Optimierung des Besuchermarketings innerhalb einer Messegesellschaft geliefert und diese in Form eines Modells visualisiert.

Der Autor

Mit seiner Abschlussarbeit an der DHBW Ravensburg, Studiengang Messe-, Kongress- und Eventmanagement, gewann Felix Urban den Deutschen Forschungspreis für Live Communication, ausgelobt von FAMAB und der TU Chemnitz.

Der Einsatz von Indoor Analytics bei Messegesellschaften in Deutschland

Entwicklung von Use-Cases und deren Bewertung unter Bezugnahme von Expertengesprächen und Befragungen

Der digitale Wandel, die digitale Transformation und die Digitalisierung sind in unserer Wirtschaft längst keine leeren Worthülsen mehr. Neue digitale Geschäftsmodelle durch digitale Technologien spielen im Hinblick auf die Wettbewerbsfähigkeit auch in Messegesellschaften eine immer relevantere Rolle. Nicht nur für die digitale Vernetzung von Aussteller und Besucher, sondern auch für den Aufbau digitaler Kompetenzen der Messeveranstalter, muss „Big Data“ zu „Smart Data“ verarbeitet werden.

Mithilfe von Indoor Analytics können an einem geschäftigen Messetag Daten wie Sand am Meer gesammelt, erfasst, verarbeitet und analysiert werden. Wie diese Daten von Messegesellschaften ausgewertet und so genutzt werden können, dass ein Mehrwert für Besucher, Aussteller und Messegesellschaft entsteht, untersucht die Autorin in ihrer Arbeit. In der Erarbeitung von drei konkreten Use-Cases berücksichtigt die Autorin messespezifische Gegebenheiten und unterzieht diese einer anschließenden Bewertung durch zwei unterschiedliche Marktforschungsmethoden. Durch qualitative Datenerhebungen in deutschen Messegesellschaften und Technologie-Unternehmen prüft sie die Einsatzmöglichkeiten und formuliert Implikationen für die datengetriebene Zukunft von Messegesellschaften.

Die Autorin

Mit ihrer Abschlussarbeit an der DHBW Ravensburg im Studiengang BWL Messe-, Kongress- und Eventmanagement erhielt Sofia Zindler den ersten Platz des FAMA Messe-Impuls-Preis 2019 und die Nominierung für den Deutschen Forschungspreis für Live Communication 2019 des FAMAB und der TU Chemnitz.

EINSATZMÖGLICHKEITEN VON DEEP-LEARNING ZUR VERBESSERUNG DES BESUCHERERLEBNISSES AUF MESSEN

Marie-Christin Gerken

Inhaltsverzeichnis

Einführung

Künstliche Intelligenz

2.1 Begriff

2.2 Deep Learning: Leistungsstarke KI

2.2.1 Funktionsweise

2.2.2 Technische Voraussetzungen

2.2.3 Normierung und Standardisierung

Profile von Messebesuchern

Analyse von Einsatzmöglichkeiten von Deep Learning bei Messegesellschaften

4.1 Methodische Vorgehensweise: Experteninterview

4.2 Voraussetzungen für die Anwendung von Deep Learning bei Messegesellschaften

4.3 Einsatzmöglichkeiten von Deep Learning zur Verbesserung des Besuchererlebnisses auf Messen

4.4 Herausforderungen beim Einsatz von Deep Learning bei Messegesellschaften

4.5 Fazit

Ableitung von Einsatzmöglichkeiten von Deep Learning zur Verbesserung des Besuchererlebnisses: Die Gesichtserkennung als Zahlungsmittel

Literaturverzeichnis

Abbildungsverzeichnis

Abb. 1:

Übersicht der ausgewählten Experten

Abb. 2:

Voraussetzungen für die Anwendung von DL bei Messegesellschaften

Abb. 3:

Anwendungsbeispiele von DL entlang der Customer Journey eines Messebesuchers

Abb. 4:

Herausforderungen beim Einsatz von DL bei Messegesellschaften

Abkürzungsverzeichnis

CIO

Chief Information Officer

CPU

Central Processing Unit

CRM

Customer-Relationship-Management

DL

Deep Learning

DSGVO

Datenschutz-Grundverordnung

GPU

Graphic Processing Unit

KI

Künstliche Intelligenz

KNN

künstliche neuronale Netze

ML

Machine Learning

Einführung

 

Künstliche Intelligenz. Dieser Begriff ist derzeit in aller Munde.

Wirtschaftsminister Peter Altmaier bezeichnet sie als „Schlüsseltechnologie für die gesamte Wirtschaft“ (Güßgen, 2019, S. 57). Google-Chef Sundar Pichai meint: „Künstliche Intelligenz ist eines der wichtigsten Dinge, an denen Menschen arbeiten. Ihre Bedeutung ist grundlegender als Elektrizität oder das Feuer“ und Microsoft-Chef Satya Nadella sagt: „Künstliche Intelligenz ist nicht einfach nur eine weitere Technologie, es könnte eine der wirklich grundlegenden Technologien sein, die Menschen jemals entwickelt haben“ (Vgl. Thielecke, 2019, S. 5).

Die Bedeutung von Künstlicher Intelligenz (KI) zeigt sich auch in den Investitionssteigerungen der letzten Jahre. Von 2013 bis 2017 haben sich die Investitionen in KI weltweit um den Faktor acht vervielfacht (Vgl. CAICT/Statsita estimates, 2018, o.S.). Maßgeblich haben zu dieser Entwicklung China (60%), die USA (29,1%) und Indien (4,7%) beigetragen, wobei Deutschland mit 0,2% eines der Schlusslichter darstellt (Vgl. CAICT/Gartner, 2018, o.S.). Nicht nur die Regierungen, auch Unternehmen begreifen KI als die nächste Basistechnologie, die „[…] flinke Start-ups in Weltmarktführer und […] Platzhirsche zu abgehängten Dinosauriern [degradieren]“ (Schmidt, 2019, o.S) könnte.

In der Automobil- oder Versicherungsbranche sowie in der Medizin wird KI bereits in vielen Bereichen angewendet und treibt die Entwicklung in großen Schritten voran. So können medizinische Programme Muttermale auf Hautkrebsrisiko überprüfen und erzielen damit eine höhere Erfolgsquote als der Mensch (Vgl. Buck, 2019, o.S.). Autos lernen ohne Aktion des Fahrzeugführers autonom zu fahren. Die Risikoeinschätzung bei der Erstellung von Versicherungsverträgen wird durch einen Algorithmus übernommen (Vgl. Krempl, 2018, o.S.). Auch im privaten Bereich begegnet uns KI im alltäglichen Leben, beispielsweise in Form von Smart-Speakern wie Alexa von Amazon.

Die Technologie, die zum aktuellen KI-Hype und den Durchbrüchen der letzten Jahre führte, nennt sich Deep Learning (DL) und ist eine Facette der KI. Unter Deep Learning versteht man Programme, die durch Algorithmen die Netzstrukturen von Nervenzellen nachbilden und so lernfähig sind (Vgl. Kirste/ Schürholz, 2019, S. 29). Aufgabe von DL ist das autonome Erkennen von Mustern (Vgl. Buxmann/Schmidt, 2019, S. 12). Dies ermöglicht das eigenständige Verarbeiten und Auswerten von vorab gesammelten Informationen.

Mit Betrachtung der Entwicklungen anderer Branchen, stellt sich die Frage, ob DL auch für die Messebranche ein Treiber sein könnte.

Der Messemarkt in Deutschland gilt als gesättigt (Vgl. Schwefer, 2017, S. 888). Seit dem Jahr 2000 haben außerdem viele Messegesellschaften mit sinkenden Besucherzahlen zu kämpfen, was insbesondere durch die fortschreitende Entwicklung des Internets zu begründen ist (Vgl. Erbel, 2017, S. 244). Umfassende Informationen zu diversen Themen lassen sich im World Wide Web finden. Der Online-Handel stellt sowohl für Verbraucher als auch für Händler eine unkomplizierte und schnelle Möglichkeit dar und die Kommunikation wird durch Instrumente wie Videokonferenzen auch bei großen Distanzen deutlich persönlicher. Abwärtstrends von Besucherzahlen wirken sich auch auf die Ausstellerzahl aus. Denn Aussteller und Besucher bedingen sich gegenseitig (Vgl. Hochheim/Neven, 2015, S. 10; von Baerle/Brandl, 2017, S. 668). Messeveranstalter sehen sich daher mit der Herausforderung konfrontiert, ein Gleichgewicht zwischen Ausstellern und Besucher zu schaffen, das für beide Seiten einen Besuch lohnenswert macht. Um eine weitere Abnahme der Besucherzahlen zu vermeiden, ist es von Nöten, zusätzliche Mehrwerte für die Besucher einer Messe zu schaffen. In anderen Branchen hat DL bereits neue Mehrwerte generiert und als Treiber funktioniert. Auch in der Messebranche gilt es, Potenziale zu erkennen. Welche Einsatzmöglichkeiten DL bietet, um das Besuchererlebnis auf Messen zu verbessern, zeigt dieser Beitrag auf. Dabei wird ebenfalls verdeutlicht, mit welchen Voraussetzungen und Herausforderungen sich Messegesellschaften bei der Anwendung dieser noch eher unbekannten Technologie auseinandersetzen sollten.

Künstliche Intelligenz

 

2.1 Begriff

Bereits seit Entstehung des Begriffes „künstliche Intelligenz“ im Jahre 1965 auf der Konferenz „Summer Research Project on Artifical Intelligence“ besteht Uneinigkeit über eine genaue Definition (Vgl. Buxmann/Schmidt, 2019, S.3 f.). Dies liegt insbesondere daran, dass verschiedene Definitionen zum Begriff Intelligenz vorherrschen, da Forscher unterschiedlich auffassen, welche Fähigkeiten zur Intelligenz zählen. Betrachtet man die Überschneidungen von Expertendefinitionen, wird Intelligenz insbesondere durch folgende Kompetenzen des Menschen definiert: Treffen logischer Schlussfolgerungen, Problemlösungs- und Urteilsvermögen, Wahrnehmung und Empfindung sowie das Ansammeln von Wissen (Vgl. Funke/Vatterrodt, 2004, S.10).

Insbesondere das Ansammeln oder auch Lernen von Wissen, das Treffen logischer Schlussfolgerungen und das Lösen von Problemen finden sich oftmals auch in Definitionen Künstlicher Intelligenz wieder (Vgl. Mainzer, 2019, S.3; van de Gevel/Noussair, 2013, S.9; bitkom/DFKI, 2017, S. 29). Trotz unterschiedlicher Auffassungen von Künstlicher Intelligenz, sind sich Forscher einig, dass es sich um ein Teilgebiet der Informatik handelt, das sich mit der Erforschung und Entwicklung von Programmen beschäftigt, die menschenähnliche kognitive Fähigkeiten besitzen. Zu diesen zählen Lernen, Problemlösung und Mustererkennung (Vgl. Amazon, o.J., o.S.; Buxmann/Schmidt,2019, S. 6.; Van de Gevel/Noussair, 2013, S. 9).

2.2 Deep Learning: Leistungsstarke KI

2.2.1 Funktionsweise

Während der Anfänge der KI „[…] brachten Programmierer Computern bei, Daten zu nutzen, indem sie komplexe Kommandostrings erstellten“ (Handcock, 2019, o.S.). Beim heutigen Datenaufkommen würde diese Lernmethode einen nicht realisierbaren Aufwand bedeuten, der mit dem Verfassen von Milliarden von Codezeilen verbunden wäre (Vgl. Handcock, 2019, o.S.). Stattdessen wird größtenteils Machine Learning (ML) angewendet, das seit den 80er Jahren als die dominierende Lernmethode in der KI vorherrscht.

Laut dem Bundesverband Informationswirtschaft, Telekommunikation und neue Medien und dem Deutschen Forschungszentrum für Künstliche Intelligenz definiert sich ML als „[…]Verfahren, bei denen Computer-Algorithmen aus Daten lernen, beispielsweise Muster zu erkennen oder gewünschte Verhaltensweisen zu zeigen, ohne dass jeder Einzelfall explizit programmiert wurde“ ( bitkom/ DFKI, 2017, S. 27). Dies bedeutet, dass die Algorithmen Erfahrungswerte nutzen, um die Entscheidungsregeln, auf deren Grundlage sie handeln, eigenständig anzupassen. So wird einem Algorithmus etwa eine Vielzahl von Hundebildern gezeigt und anstatt, dass der Programmierer definiert, was die Merkmale eines Hundes sind (vier Pfoten, ein Schwanz, Fell etc.) erkennt der Algorithmus selbst bezeichnende Merkmale (Vgl. Buxmann/Schmidt, 2019, S. 8).

Deep Learning hat als Facette des ML in den letzten Jahren die Entwicklung der künstlichen Intelligenz stark beschleunigt. So ist die Umsetzung von Technologien wie Smart Speakern oder Chatbots ermöglicht worden – auch wenn es noch Verbesserungspotenziale gibt.

DL nutzt zum Lernen künstliche neuronale Netze (KNN), die den Netzstrukturen des menschlichen Gehirns nachempfunden sind. Im Gegensatz zu der komplexen Anordnung von Neuronen im Gehirn des Menschen sind die künstlichen Neuronen dabei allerdings linear angeordnet (Vgl. Statista, 2019, S. 23). Ein KNN besteht aus Neuronen (Knoten) und Synapsen (Kanten), die gemeinsam ein Netz bilden (Vgl. Buxmann/Schmidt, 2019, S. 13). Die Verarbeitung von Input zu Output geschieht durch die Programmierung der Neuronen, die der Computer eigenständig vornimmt (Vgl. Statista, 2019, S. 23). Es gibt drei unterschiedliche Neuronen-Typen (Vgl. im Folgenden Rey/Wender, 2018, o.S. zitiert nach Buxmann/Schmidt, 2019, S. 13 ff.):

Die Eingabe-Neuronen werden mit den Eingangsdaten gespeist. Dies können beispielsweise Blutwerte bei einem Programm zur Diagnose von Blutkrankheiten sein.

Die versteckten Neuronen bezeichnen die inneren Schichten des KNN, die sich zwischen den Eingabe- und Ausgabe-Neuronen befinden. Hier werden die Eingangsdaten in einer Vielzahl von Schichten verarbeitet. Dabei kommen in einer nachgelagerten Schicht mehrere Werte unterschiedlicher vorgelagerter Neuronen an, die anschließend verarbeitet werden und im nächsten Schritt an Neuronen der nächsten Schicht gegeben werden (Vgl. Kirste/Schürholz, 2019, S.31. f.). Die Synapsen zwischen den Neuronen erfüllen die Funktion von Gewichten, die als Parameter Einfluss auf Entscheidung des Algorithmus nehmen (Vgl. Selle, 2018, S. 10).

Die Ausgabe-Neuronen enthalten die Ausgangsdaten, wie zum Beispiel eine Diagnose. Sie sind das Ergebnis der Verarbeitung der Eingabe-Neuronen.

Die Synapsen, die die einzelnen Neuronen miteinander verbinden, repräsentieren das Wissen des Netzes. Ihre Gewichte werden durch Lernregeln bestimmt, die das Netz mit Hilfe von Trainingsdaten eigenständig entwickelt (Vgl. Buxmann/Schmidt, 2019, S. 14 f.). Bevor also eine Nutzung des KNN möglich ist, muss es gefüllt und angelernt werden. Ist die Fehlerquote unter einer vorab definierten Grenze angelangt, ist die Trainingsphase abgeschlossen und das KNN ist einsatzbereit (Vgl. Schürholz/Spitzner, 2019, S. 37). Im weiteren Verlauf passt das Netz die Parameter ständig an und nutzt hierzu die Daten, die es zur Bearbeitung erhält (Vgl. bitkom/DFKI, 2017, S. 17).

Frühere Formen von KNN nutzten meist drei Schichten, wohingegen beim DL oftmals zehn oder mehr Schichten zum Einsatz kommen (Vgl. Statista, 2019, S. 23). Die Vielzahl der Schichten ermöglicht eine größere Parallelität bei der Verarbeitung von Daten, was das Netz gegenüber anderen Formen des ML deutlich leistungsfähiger macht (Vgl. Kirste/Schürholz, 2019, S. 31). Darüber hinaus passt das Netz durch die kontinuierliche Verarbeitung der Eingabe-Werte ständig seine Lernregeln an, wohingegen andere Methoden bereits zu einem früheren Zeitpunkt ein Optimierungsplateau erreichen (Vgl. Statista, 2019, S. 23).

Sowohl beim Deep-Learning als auch bei anderen Formen des ML erstellt der Algorithmus die Regeln für die Verarbeitung von Input zu Output eigenständig, ohne dass der Mensch die Parameter des Verarbeitungsprozesses kennt. Daher wird oftmals der Vergleich zu einer Black Box gezogen, da nicht ersichtlich ist, wie genau der Computer Daten verarbeitet und warum er zu einem bestimmten Ergebnis kommt (Vgl. Buxmann/Schmidt, 2019, S. 17; Seller, 2018, S. 12, Mainzer, 2019, 245 f.). Die Muster, die der Algorithmus erkennt, müssen in der Realität nicht in Zusammenhang mit dem eigentlichen Ergebnis stehen. Ist das Ziel eines Algorithmus beispielsweise anhand von bisherigem Buchungsverhalten eine Vorhersage über die Ausstellerzahl zur Messe treffen, so macht er dies an Kriterien fest, die er als Eingabe erhalten hat und versucht, eine Korrelation dieser zu erschließen. Kriterien wie die Schuhgröße oder die Haarfarbe des Ausstellers, sollten diese Inhalte abgefragt werden, würde der Algorithmus in seine Entscheidung einbeziehen, auch wenn erkannte Muster Zufallswerte wären und nicht in Verbindung zum Anmeldeverhalten zu stellen sind.

Die Unwissenheit über die erlernten Parameter macht die Klärung der Verantwortungsfrage, insbesondere bei sensiblen Themen wie medizinischen Diagnosen, autonomen Fahren oder Bewerbungsprozessen problematisch (Vgl. Mainzer, 2018, S. 245). Wenn dem Menschen verborgen bleibt, wie ein Algorithmus Lösungen berechnet, bietet dies ein Potenzial für unerkannte Fehlentscheidungen.

2.2.2 Technische Voraussetzungen

Sowohl beim DL als auch bei anderen Formen des ML muss das Programm zunächst mit großen Datenmengen gespeist werden, die es analysieren und auswerten kann, um Lernregeln zu generieren. Bilderkennungsprogramme werden mit tausenden oder zehntausenden Bildern versorgt, um die benötigten Strukturen zu begreifen und entsprechende Algorithmen zu entwickeln (Vgl. bitkom/ DFKI, 2017, S. 27). Bei der jährlichen ImageNet Large Scale Visual Recognition Challenge, bei der Teams ihre Programme zur Bilderkennung präsentieren, wurden insgesamt rund 1,2 Millionen Bilder in 100 Kategorien zum Anlernen der Programme genutzt (Vgl. Statista, 2019, S. 37).

Neben der Quantität spielt auch die Datenqualität eine zentrale Rolle. Da der Algorithmus aus den Daten lernt, ist es wichtig, dass die Daten korrekt und vollständig sind, damit keine falschen Lernregeln aus ihnen abgeleitet werden. Da die Verarbeitung der Daten wie in einer Black Box geschieht, ist im Nachhinein nicht ersichtlich, auf Grundlage welcher Daten welche Parameter festgesetzt wurden. Zur Verringerung der Fehlerquote ist daher von Anfang an darauf zu achten, dass die eingespielten Daten korrekt und vollständig sind (Vgl. Teich, 2018, o.S.).

Wie bereits erwähnt, können KNN bedingt durch ihre Vielschichtigkeit parallel große Datenmengen verarbeiten. Der hohe Grad der Parallelisierung ist dadurch begründet, dass zur Berechnung größtenteils Matrixmultiplikationen und Vektoradditionen verwendet werden. Die Ergebniselemente der Matrix weisen keine Abhängigkeit untereinander auf und auch die Berechnung der Elemente der Ausgangsmatrizen erfolgen unabhängig voneinander. Dies bedeutet, dass die Matrixmultiplikation sich in vier einfache Rechnungen gliedert, die nicht aufeinander aufbauen. In der Folge können die Rechnungen gleichzeitig ausgeführt werden, ohne auf ein Zwischenergebnis zu warten.

Die starke Parallelisierung der Berechnungen verursacht die Inanspruchnahme einer großen Rechenleistung, die eine entsprechend leistungsfähige Hardware benötigt. Außerdem lässt sich folgendes feststellen: Je mehr Schichten ein KNN besitzt und je mehr Daten es verarbeitet, desto mehr Rechenleistung nimmt es in Anspruch (Vgl. Schürholz/Spitzner, 2019, S.36 ff.). Insbesondere für die Trainingsphase des neuronalen Netzes wird eine große Rechenleistung benötigt, da in dieser Phase das Netz erschaffen wird (Vgl. Kirste/Schürholz, 2019, S. 32).

Die normalerweise in Computern, Mobilgeräten und Servern verbauten Universalprozessoren (CPUs) wurden ursprünglich dafür konzipiert, schnell Arbeitsschritte hintereinander getaktet auszuführen, wobei sie auf einen zentralen Speicher für Daten und Instruktionen zurückgreifen. Für parallel ausgeführte Aufgaben eignen sich solche Prozessoren allerdings nicht, da der Grad der Parallelisierung begrenzt ist (Vgl. Schürholz/Spitzner, 2019, S. 38 f.). Stattdessen wird Hardware genutzt, die ursprünglich geschaffen wurde, um für Computerspiele mittels aufwändiger mathematischer Funktionen möglichst realistische Grafiken zu generieren: Graphic Processing Units (GPUs). Zur Darstellung einer hohen Bildfrequenz bei Computerspielen führen GPUs parallel tausende Matrizen- und Vektoroperatoren aus – ähnlich wie DL auch. Die Anwendung von GPUs reduzierte die Erstellungsdauer von KNN von mehreren Monaten auf Wochen oder gar Tage. Zählten früher zu den Nutzern von GPUs vor allem Gamer und Grafiker, so wird heute ein großer Teil der Prozessoren an Unternehmen sowie die Wissenschaft und Forschung verkauft (Vgl. Gentsch, 2018, S. 21 f.).

Sind die Daten in richtiger Menge und Qualität vorhanden und steht die benötigte Hardware zur Verfügung, so braucht es noch eine Software, die die Daten verarbeitet. Es gibt eine Vielzahl an Programmiersprachen, wobei Python mit einem Anteil von knapp 41% die meistgenutzte ist (Vgl. Selle, 2018, S. 53). Als Open-Source-Software ist die Nutzung kostenfrei und das Programm wird ständig von Community-Mitgliedern weltweit verbessert (Vgl. Pilgrim, 2010, S. 5).

2.2.3 Normierung und Standardisierung

Das neuronale Netz und seine Algorithmen, das DL zur Verarbeitung von Eingabe- zu Ausgabewerten schafft, wurden bereits mit einer Blackbox verglichen. Eine wichtige Frage, ergibt sich daher in Bezug auf die Verantwortung. Wer übernimmt die Verantwortung für eine durch KI berechnete Lösung? Stellen wir uns vor, dass beispielsweise beim autonomen Fahren ein krabbelndes Baby mit einem Hasen verwechselt und überfahren wird. Oder dass bei der Auswahl von Bewerbern zu einem Gespräch der Algorithmus bestimmte Nationalitäten oder Religionen diskriminiert. Wer ist in solchen Fällen zur Rechenschaft zu ziehen? Der Anwender? Oder der Entwickler? Juristische oder natürliche Personen? Eine weitere Frage ist, welche Daten wie verarbeitet werden dürfen und wie weit die Verwendung dieser Daten gehen darf.

In Peking sind bereits in Bahnhöfen, Einkaufszentren und belebten Straßen intelligente Kameras installiert, die alles filmen, was sie vor die Linse bekommen. Die Daten werden an zentrale Rechenzentren geschickt, analysiert und daraufhin werden in Echtzeit Profile von jeder durch die Kameras erfassten Person erstellt (Vgl. im Folgenden Lee, 2018, o.S.; Erling, 2019, o.S.). Ab 2020 soll in China außerdem das sogenannte Social-Scoring eingeführt werden. Hierbei handelt es sich um ein System, mit dem die Verhaltensweisen der Bürger bewertet werden. Zu Beginn hat jeder Bürger gleich viele Punkte. Je nach Verhalten werden Punkte abgezogen oder hinzugegeben. Fährt beispielsweise ein Bürger über eine rote Ampel, spielt viele Computerspiele oder sieht sich Pornos an, verliert er Punkte. Kauft er hingegen gesunde Babynahrung oder spendet Blut, so gewinnt er Punkte hinzu. Bürger mit einem hohen Score erhalten etwa vergünstigte Kredite, eine gute Krankenversicherung oder Zugang zu besseren Universitäten für ihre Kinder, wohingegen Bürger mit besonders niedrigen Scores sogar befürchten müssen, ihren Job zu verlieren. Möglich gemacht wird diese Überwachung neben der Gesichtserkennung auch durch die Weitergabe der Nutzerdaten von privatwirtschaftlichen Unternehmen an die Regierungsbehörde. So fließt beispielsweise das Surf- oder Kaufverhalten in die Bewertung ein.

In Deutschland und Europa haben wir Datenschutzverordnungen, die einen derartigen Eingriff in die Privatsphäre nicht zulassen würden. Dennoch ist das Beispiel nennenswert, da es die Wichtigkeit einer Regulierung beim Sammeln und Verarbeiten von Daten aufzeigt.

Im Mai 2018 trat die DSGVO für alle Unternehmen in Kraft, die ihren Sitz in der EU haben oder Daten von dort ansässigen Personen nutzen. Zweck der EU-Verordnung ist das Schaffen einer einheitlichen Rechtsgrundlage zum Umgang mit personenbezogenen Daten in Europa (Vgl. Siebert, 2019, o.S.).

Als Reaktion auf die offenen Fragen von Unternehmen, Verbänden, und Verbrauchern richtete die EU im Jahr 2018 eine Kommission aus 52 Experten ein, die sich mit der Erarbeitung ethischer Leitlinien befasste. Ziel der Kommission ist es, bei der Implementierung einer europäischen KI-Strategie beratend zu unterstützen, die ethische Rahmenbedingungen setzt und der Industrie ermöglicht, KI zu entwickeln. So soll auch Europa von dem wirtschaftlichen Potenzial profitieren können, ohne dass die Rechte der Bevölkerung eingeschränkt werden (Vgl. European Commission, 2019a, o.S.; Hegemann, 2019, S. 1). Im April 2019 veröffentlichte die Kommission sieben Voraussetzungen für eine vertrauenswürdige KI (Vgl. European Comission, 2019b, S. 14 ff.).

Nicht nur die Europäische Kommission setzt sich mit Richtlinien für die Anwendung von KI auseinander. Auch Verbände, Unternehmen und Institute stellen Ansätze für den Umgang mit KI vor, darunter der Bundesverband Digitale Wirtschaft (BVDW), das Institut für Normung (DIN), SAP und die Deutsche Telekom (Vgl. BVDW e.V., 2019, S. 3 ff.; Fulde, 2018, o.S.; Machmeier, 2018, o.S.).

Sich öffentlich zum Einhalten von Richtlinien zu bekennen, die ethische und moralische Aspekte berücksichtigen, schafft Transparenz für Außenstehende. So können Unternehmen zeigen, dass sie sich der Verantwortung beim Umgang mit KI und der Daten ihrer Nutzer bewusst sind. Verbindlich sind solche Richtlinien allerdings nicht, sodass nicht erwartet werden sollte, dass das Vertrauen von Kunden, Mitarbeitern und anderen Interessensgruppen leicht zu gewinnen ist.

Profile von Messebesuchern

 

Ist das Ziel einer Messegesellschaft einen Mehrwert für ihre Besucher zu schaffen, so stellt sich zunächst die Frage, worin diese einen Mehrwert sehen und wie dieser an sie kommuniziert werden könnte. Im Folgenden wird daher das Profil eines Messebesuchers genauer beschrieben. Eine grundlegende Unterscheidung wird zwischen Fachmessebesuchern und Besuchern von Publikumsmessen gemacht, da sie unterschiedliche Bedürfnisse aufweisen und daher eine differenzierte Betrachtung sinnvoll ist.

Fachmessebesucher nutzen Messen vornehmlich, um sich zu informieren. So ergab eine Studie des Ausstellungs- und Messeausschusses AUMA, die Besucherbefragungen von 187 Messen unterschiedlicher deutscher Messeveranstalter, analysierte, dass die drei wichtigsten Ziele von Fachbesuchern „Informationen über Neuheiten/Trends“ (67%), „Informationsbeschaffung“ (64%) und „Erfahrungs-/ Informationsaustausch“ (56%) sind. Für ca. die Hälfte der Besucher sind auch die Weiterbildung und die Pflege von Geschäftsbeziehungen sehr wichtig. Transaktionsziele wie das Vorbereiten des Einkaufs (32%) oder das Abschließen von Geschäften (26%) hingegen sind für den Großteil der Besucher weniger bedeutsam (Vgl. Hochheim/Neven, 2015a, S. 9).

Damit ist die Zielpriorisierung von Messebesuchern und Ausstellern nicht deckungsgleich. 67% der Aussteller verfolgen mit einer Messebeteiligung das Ziel, Vertragsabschlüsse auf der Messe oder im Anschluss an diese umzusetzen. 89% der Aussteller wollen Neukunden gewinnen (Vgl. Hochheim/Neven, 2019, S. 28). Die Ziele der Besucher bestimmen deren Verhalten auf der Messe (Vgl. Meffert, 2017, S. 1016). Daher ist es für den Messeveranstalter von großer Bedeutung, sich die unterschiedlichen Ziele von Besuchern und Ausstellern bewusst zu machen, um Mehrwerte für die beiden unterschiedlichen Zielgruppen zu schaffen.

Über die letzten Jahre hat sich die Verweildauer auf Messen sowie die Anzahl der Mitarbeiter, die ein Unternehmen zu einem Messebesuch entsendet, vermindert. Fachmessebesucher verfügen daher heute über weniger Ressourcen in Form von Zeit und Personal. In der Folge versuchen sie sich bereits vor der Messe vorzubereiten, indem sie Gesprächstermine vereinbaren oder festlegen, welche Aussteller sie besuchen wollen. Sie erwarten daher die Bereitstellung umfangreicher Information im Internet (Vgl. Erbel, 2017, S. 247 ff.).

64% der Besucher haben die jeweilige Messe in der Vergangenheit bereits besucht und 36% der Besucher sind Erstbesucher (Vgl. im Folgenden Hochheim/ Neven, 2015b, S. 7 ff.). Damit besteht für die Messegesellschaft und die Aussteller ein bedeutendes Potenzial in der Bindung neuer Kunden sowie in der Haltung der bereits bestehenden Stammkunden. Zwei Drittel der Messebesucher nutzen auch andere Branchenmessen als Plattform. Dies bedeutet gleichzeitig, dass ein Drittel der Besucher nur auf einer bestimmten Messe präsent ist, was den Ausstellern und der Messegesellschaft eine exklusivere Ansprache ermöglicht. Schaut man sich die Wiederbesuchsabsicht an, so wird deutlich, dass Wiederholungsbesucher mit 79% deutlich öfter sagen, dass sie die Messe wahrscheinlich oder sicher wieder besuchen werden. Bei den Erstbesuchern sind es lediglich 60%. Der Grund hierfür liegt vermutlich darin, dass Erstbesucher erst nach der Auswertung des Messebesuches dessen Erfolg bewerten können.

Über Messebesucher von Publikumsmessen liegen weniger detaillierte Informationen vor.

Wollen Sie wissen, wie es weiter geht?

Hier können Sie "Deep Learning, Artificial Intelligence, Target Group Identification, Indoor Analytics" sofort kaufen und weiterlesen:

Amazon

Apple Books

ebook.de

Thalia

Weltbild

Viel Spaß!



Kaufen