Hinweis

Für dieses multimediale Reportage-Format nutzen wir neben Texten und Fotos auch Audios und Videos. Daher sollten die Lautsprecher des Systems eingeschaltet sein.

Mit dem Mausrad oder den Pfeiltasten auf der Tastatur wird die jeweils nächste Kapitelseite aufgerufen.

Durch Wischen wird die jeweils nächste Kapitelseite aufgerufen.

Los geht's

Kuenstliche Intelligenz

Logo https://wijo.pageflow.io/kuenstliche-intelligenz

STARTSEITE

Zum Anfang

Technologie & Forschung

Zum Anfang

Künstliche Intelligenz

Ob es um autonomes Fahren, das Smart Home oder Alexas Sprachsteuerung geht: Der Begriff Künstliche Intelligenz (KI) taucht zurzeit überall auf. Doch was ist KI eigentlich? Was bedeuten Begriffe wie Neuronale Netze, Big Data, Machine oder Deep Learning? Und wie weit ist die Technik bereits?

Was heute wie ein Modewort klingt, ist unter Fachleuten bereits seit über 60 Jahren bekannt: Im Zuge der Dartmouth Conference wurde der Begriff Artificial Intelligence (AI, auf Deutsch: Künstliche Intelligenz) im Jahr 1956 zum ersten Mal genutzt. Seither sind Wissenschaftler davon überzeugt, dass die menschliche Intelligenz mit Maschinen abgebildet werden kann. KI zu definieren, fällt allerdings weiterhin schwer. Das liegt vor allem daran, dass es für den Begriff Intelligenz keine allgemeingültige Definition gibt. Klar ist jedoch: KI ist ein Teilgebiet der Informatik, das versucht, menschliches Verhalten und Denken künstlich nachzuahmen, um damit Probleme zu lösen. Dass es gerade so einen Hype erfährt, liegt vor allem daran, dass die Computer heute viel leistungsstärker sind als noch vor einigen Jahren – und sie demnach nicht nur schneller rechnen, sondern auch komplexere Probleme lösen können.
Zum Anfang
Doch KI ist nicht gleich KI. Innerhalb dieses Bereichs wird weiter zwischen schwacher und starker KI unterschieden – abhängig davon, wie intelligent das System wirklich ist beziehungsweise handelt. Ein schwaches System kümmert sich meist nur darum, eine einzige Aufgabe zu erledigen. Es hat lediglich gelernt, wie es sich in einem bestimmten Gebiet verhalten muss und kann nur Probleme lösen, die innerhalb dieses Gebiets auftauchen. So kann ein Chatbot beispielsweise zwar mit Menschen schriftlich kommunizieren – mit ihnen sprechen oder ihre Gesichter erkennen kann er allerdings nicht. Schwache KI ist also darauf ausgelegt, bestimmte Aufgaben automatisch oder sogar autonom, sprich selbstständig, auszuführen. Auch wenn sie dies um einiges schneller und effizienter kann als ein Mensch, ist sie noch lange keine Kopie von ihm.

Darauf allerdings zielt die starke KI ab: Eine Maschine zu schaffen, die allgemein intelligent wie ein Mensch ist – oder sogar intelligenter. Während schwache KI schon, ob bewusst oder unbewusst, Teil unseres Alltags geworden ist, gehören stark intelligente Systeme noch zu einer weit entfernten Zukunftsvision. Denn diese Systeme würden aus eigenem Antrieb handeln: Sie könnten logisch denken, auch bei Unsicherheit Entscheidungen treffen, in natürlicher Sprache kommunizieren, wären fähig zu planen und zu handeln und könnten darüber hinaus all diese Fähigkeiten kombinieren. Ob eine starke KI jedoch wie ein Mensch ein Bewusstsein haben und Empathie empfinden wird, ist noch unklar.


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
So wie ein Mensch nicht von Geburt an laufen kann, so muss auch eine Maschine erst lernen, wie sie bestimmte Aufgaben bewältigen kann. Die Grundlage hierfür liefern Algorithmen und Daten. Der Algorithmus erklärt der Maschine, wie sie Schritt für Schritt vorgehen muss, um ein Problem zu lösen. So erkennt eine KI beispielsweise nie direkt ein ganzes Gesicht, sondern setzt einzeln identifizierte Muster nach und nach zusammen, bis so aus Augen, Mund und Nase das Gesamtbild entsteht – und das passiert wie im menschlichen Gehirn innerhalb von Bruchteilen einer Millisekunde.

Damit die KI allerdings weiß, wie ein Gesicht überhaupt aussieht, aus welchen Einzelteilen es besteht und wie sie diese erkennt, benötigt sie Daten. Und zwar meistens jede Menge davon. Mithilfe tausender verschiedener Bilder bekommt sie nicht nur beigebracht, zwischen Mund und Nase, sondern auch zwischen einem tierischen und einem menschlichen Gesicht zu unterscheiden. Je mehr Übungsbilder sie hierbei nutzen kann – sprich je mehr sie trainieren kann –, umso besser lernt sie, die Dinge zu erkennen und auseinanderzuhalten. Während eine KI allerdings tausende Hunde- und Katzenbilder braucht, um einen Hund von einer Katze zu unterscheiden, braucht ein dreijähriges Kind hierfür nur einmal einen Hund zu sehen.
Zum Anfang
Insbesondere wenn es um viele Daten geht, taucht der Begriff Big Data oft auf. Dieser ist allerdings gefühlt ebenso wenig definierbar wie KI selbst. Im Großen und Ganzen kann man jedoch sagen, dass es bei Big Data darum geht, riesige Datenmengen zu organisieren. Fragen wie „Wie komme ich an Daten?“, „Wie speichere ich sie?“ und „Wie bekomme ich aus der Datenmenge nützliche Infos heraus?“ und deren Beantwortung stehen hierbei im Vordergrund. Das alles hat jedoch meistens (noch) gar nichts mit KI zu tun. Die beiden Begriffe verbinden sich erst dann miteinander, wenn die KI in ihrem Lernprozess auf Daten zurückgreift, die aus Big Data gewonnen wurden. Big Data selbst ist also nicht künstlich intelligent – es kann lediglich als Nahrung für die KI dienen. Doch wie kann ein künstlich intelligentes System das verwerten?
Zum Anfang
Der oben genannte Lernprozess kann auf unterschiedliche Weisen stattfinden. Eins der bekanntesten und meistgenutzten Verfahren ist das Machine Learning (ML, auf Deutsch: maschinelles Lernen), das auf zwei verschiedene Arten genutzt werden kann. Zum einen gibt es das supervised learning (auf Deutsch: überwachtes Lernen), bei dem die KI mittels eines Trial-and-Error-Prinzips lernt. Konkret bedeutet das: Das System lernt anhand tausender Frage-Antwort-Paaren die richtigen Antworten und muss sich anschließend bei einem Test mit unbekannten Daten beweisen. Besteht es diesen, ist es einsatzbereit und kann neue unbekannte Daten analysieren.

Zum anderen dagegen gibt es das unsupervised learning (auf Deutsch: unüberwachtes Lernen). Hierbei ist das System auf sich allein gestellt, es sind keine Frage-Antwort-Paare vorhanden, die es lernen kann. Die KI bekommt in diesem Fall teilweise eine Menge Daten zur Verfügung gestellt (zum Beispiel aus Big Data) und muss selbst herausfinden, was sie mit ihnen anfängt. So muss sie versuchen, bestimmte Muster zu erkennen und daraus Regeln abzuleiten – und sich entsprechend anpassen. Auf diesem Weg hat sich beispiels-weise die KI ‘AlphaGo‘ von Google das Spiel ‘Go‘ beigebracht, ohne vorher die Regeln gekannt zu haben.
Zum Anfang
Eine Technik, auf die beim Machine Learning oft zurückgegriffen wird, sind sogenannte neuronale Netze. Diese Netze haben unser menschliches Gehirn als Vorbild und bestehen aus vielen künstlichen Neuronen, über die das System auf den unterschiedlichsten Wegen lernen kann. Je mehr Neuronenschichten vorhanden sind, umso mehr Wege gibt es – und umso komplexer können die Sachverhalte sein, die das System bearbeiten soll. Der Mensch muss in diesen Lernvorgang meist nicht mehr eingreifen unüberwachtes Lernen.
Wenn die KI mit einem Netz lernt, das besonders viele Schichten hat, das also wirklich „in die Tiefe“ geht, dann wird dies Deep Learning (DL, auf Deutsch: tiefes Lernen) genannt. Diese Methode eignet sich sehr gut, um große Datenmengen zu untersuchen und hierbei Muster zu erkennen oder Modelle zu entwickeln. So wird es beispielsweise oft genutzt, wenn es darum geht, Gesichter, Objekte oder Sprache zu erkennen. Denn über die Zeit hat sich gezeigt, dass KI diese Aufgaben besser mittels DL lösen kann als mit anderen ML-Techniken.
Zum Anfang
Ein Bereich, in dem Verfahren wie ML oder DL eingesetzt werden und der im KI-Begriffs-Dschungel ebenfalls öfter genannt wird, ist Data Mining. Übersetzt man diesen Begriff ins Deutsche, führt er etwas in die Irre. Denn es geht hierbei nicht darum, Daten so abzubauen (Englisch: to mine) wie man zum Beispiel Kohle abbaut. Sondern darum, unübersichtliche Datenmengen mithilfe von Algorithmen zu sortieren, um daraus bestimmte Erkenntnisse beziehungsweise Ergebnisse zu gewinnen. So können Versicherungen beispielsweise automatisiert Betrüger erkennen oder Netflix seinen Nutzern passende Serien empfehlen und Trends abschätzen.

Eine spezielle Form des Data Minings ist das Text Mining: Hierbei werden lediglich Textdaten wie Zeitungsartikel, Tweets oder Reden analysiert. Spezielle Techniken wie das Natural Language Processing (NLP) sorgen dafür, dass die Maschine die Textdaten – sprich unsere Sprache – versteht. NLP beispielsweise kombiniert hierfür Methoden aus den Sprachwissenschaften mit KI-Methoden wie dem ML.
Zum Anfang
Ein weiteres Gebiet, das teilweise KI nutzt, ist die Robotik. Diese beschäftigt sich damit, Roboter zu entwickeln. Im Prinzip geht es dabei darum, die Elektronik und Mechanik einer Maschine mithilfe der Informatik so miteinander zu verbinden, dass diese gemeinsam gesteuert werden und zusammen-arbeiten können. Wird ein Roboter mithilfe von KI pro-grammiert, dann zählt er als intelligent. Dies zeigt sich allerdings bisher nur in einer schwachen Form. Führt ein Roboter lediglich stumpf immer die gleichen Bewegungen aus, ohne sich dabei von selbst an geänderte Bedingungen anzupassen, dann steckt höchstwahrscheinlich keine KI in ihm. Dies betrifft viele Maschinen, die in der Industrie für Routinearbeiten eingesetzt werden. Kann der Roboter dagegen beispielsweise wie ein Chatbot Sprache erkennen und mit Menschen reden – sprich autonom mit jemandem kommunizieren –, dann agiert er zumindest in diesem Bereich intelligent. Wissenschaftler sind allerdings noch weit davon entfernt, einen Roboter zu bauen, der sich komplett wie ein Mensch verhält, der wie dieser denkt, fühlt und handelt und demnach stark intelligent wäre.
Zum Anfang

Intelligentes Schulbuch (Hypermind)

Ein Schulbuch, das sich individuell an jeden Schüler anpasst, das Fachbegriffe, die der Leser nicht versteht, automatisch erklärt. Oder das zu komplexen Themenbereichen von selbst Videos abspielt. Was wie der Traum eines jeden Schülers klingt, könnte dank eines Projekts der Technischen Universität Kaiserslautern (TU) und dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) bald Alltag in den Schulen werden.


Zum Anfang
Der erste Unterschied zu einem klassischen Schulbuch fällt direkt auf – HyperMind wird am PC gelesen. Das digitale Buch erkennt automatisch, wo der Schüler hinschaut und ob er manche Stellen eventuell länger als gewöhnlich oder wiederholt betrachtet. Das ist ein Zeichen dafür, dass der Lernende den Inhalt entweder sehr interessant findet oder womöglich nicht versteht – und ein Signal für das Schul-buch. Mithilfe dieses Signals kann es sich individuell auf jeden Schüler einstellen. Wo es nötig ist, spielt es dem Leser Zusatzinformationen zu: Fachbegriffe werden in einfachen Texten erklärt, komplexe Inhalte mithilfe von Bildern, Grafiken oder Videos veranschaulicht. Die einzelnen Bausteine helfen dem Schüler, das Thema in seinem eigenen Lerntempo zu verstehen – oder das Wissen über ein spannendes Feld zu vertiefen. Prof. Dengel sieht viele Vorteile für den Schüler:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Doch woher weiß HyperMind, wo der Schüler gerade hinschaut? Und ob dieser interessiert liest oder Ver-ständnisprobleme hat? Für dieses Wissen sorgt eine Künstliche Intelligenz (KI), die unter anderem mit einem Eyetracker arbeitet. Eine Kamera, die am Bildschirm befestigt ist, nimmt jede noch so kleinste Bewegung der Augen auf. Und das intelligente System analysiert diese dann. So kann das Buch beispielsweise erkennen, ob der Leser eine bestimmte Stelle länger als gewöhnlich fixiert oder ob seine Augen sich sakkadisch bewegen – sprich, ob sie schnell und ruckartig von einem Wort oder Objekt zum nächsten springen. Doch HyperMind setzt noch auf weitere intelligente Bausteine. 
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Auch wenn das Schulbuch erkennt, wie gut oder schlecht ein Schüler mit dem Inhalt zurechtkommt: Lernen muss derjenige immer noch selbst. Denn Aufgaben, die den aktuellen Wissensstand testen, müssen weiterhin bearbeitet werden – wie immer schon. Die KI spielt jedoch auch beim Bearbeiten der Aufgaben eine Rolle: Sie merkt sich, ob der Schüler die Inhalte vorher besser mithilfe von Diagrammen, Videos oder Bildern gelernt hat, und erkennt die daraus aufgenommenen Informationen in der Lösung wieder. Dadurch kann sie den Lernenden noch besser kennenlernen, individuell unterstützen und eingreifen, wenn der Schüler sich beispielsweise statt Diagrammen nur noch Videos anschaut. In diesem Fall könnte HyperMind ihm gezielt Diagramme zeigen – gepaart mit Videos, die ihm erklären, wie er selbst Diagramme erstellt oder diese analysiert.
Zum Anfang
Bei all der Hilfe, die HyperMind bietet, stellt sich jedoch auch die Frage nach dem Datenschutz. Wird mit solch intelligenten Büchern am Ende der gläserne Schüler erschaffen? In einem Interview mit dem Bundesministerium für Bildung und Forschung (BMBF) sagt Professor Jochen Kuhn von der TU Kaiserslautern, dass der Prototyp zurzeit noch „komplett mit anonymisierten Daten“ arbeitet und sie demnach „keine Rückschlüsse auf einzelne Personen ziehen“ können. Für den Einsatz im Schulalltag werde jedoch noch ein Datenschutz-konzept erstellt, das auf der Datenschutz-Grundverordnung basiere, ergänzt er.
Zum Anfang

Weltraumroboter

Die Weiten des Universums faszinieren Menschen schon seit langer Zeit. Was befindet sich hinter den Sternen? Existiert außerirdisches Leben? Wie sind andere Planeten beschaffen und können Menschen dort überleben? Künstliche Intelligenz (KI) kann helfen, vor allem Fragen wie die letzte zu beantworten.

Am Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) entwickeln Wissenschaftler Weltraumroboter, die in Zukunft autonom fremde Planeten für uns Menschen auskundschaften sollen. Steffen Planthaber vom DFKI erklärt, warum es so wichtig ist, dass sie autonom im Weltall agieren:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Die in Bremen entwickelten Roboter sind zwar noch nicht soweit, dass sie den Weltraum alleine unsicher machen können. Allerdings können sie bereits Objekte und Hindernisse erkennen und diesen selbstständig ausweichen. Der vierbeinige Roboter SherpaTT beispielsweise hat im Winter 2018 in der marokkanischen Wüste gezeigt, was er schon kann: Er legte eine Strecke von 1,4 Kilometern autonom zurück. Wenn ihm dabei schmale Passagen oder Hindernisse wie große Steine in den Weg kamen, führte er seine Beine automatisch enger zusammen oder spreizte sie, um weiterzukommen.

Begleitet wurde er von seinem kleinen Kollegen, dem Coyote III. Das Roboterteam sollte gemeinsam eine Sample-Return-Mission simulieren. Dabei erkundete der große SherpaTT die Umgebung und nahm an interessanten Stellen Bodenproben. Der Mikro-Rover Coyote III fuhr ihm hinterher, sammelte die Proben ein und brachte diese dann sicher zurück zur Basisstation.
Zum Anfang
Doch wieso werden die Roboter überhaupt in einer Wüste getestet? In Bremen, dem Heimatort der intelligenten Maschinen, haben sie schließlich einen selbstgebauten Mond-krater direkt vor der Nase. Laut Planthaber reicht die 288 Quadratmeter große Weltraumhalle jedoch nur für die ersten Tests. Um zu schauen, ob Roboter wie SherpaTT und Coyote III auch mit neuen Herausforderungen, wie sie in der realen Welt ständig auftauchen, umgehen können, müssen sie raus. Und da die Weltraumroboter zunächst hauptsächlich auf dem Mond oder auf dem Mars arbeiten sollen, müssen sie sich in ähnlichen Gebieten zurechtfinden: Auf der Erde sind das dann Wüsten wie in Marokko oder Utah, USA oder auch Lavahöhlen auf Teneriffa.
Zum Anfang
Die Weltraumroboter des DFKI haben die Erde jedoch alle noch nicht ein einziges Mal verlassen. Zum einen ist ihre Technik noch nicht fertig ausgereift, zum anderen dienen sie in erster Linie als Forschungsplattform. Mit ihnen werden mögliche Weltraummissionen simuliert und bis aufs kleinste Detail getestet. Wenn die Roboter soweit sind, dass sie vollkommen autonom agieren können und den Herausforderungen der Arbeit auf Mars und Mond gewachsen sind, werden ihre intelligenten Systeme auf „echte“ Weltraumroboter über-tragen, heißt es seitens des DFKI in einem Interview der Reihe „Fragen? Experten antworten!“ des Stadtportals Bremen. Die Erkenntnisse, die das Forscherteam über die Weltraumroboter gewinnt, nutzen uns Menschen jedoch auch in anderen Gebieten:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

KI im Notfalleinsatz

Was auf Robotik-Wettbewerben schon erfolgreich praktiziert wird, soll helfen, in Zukunft Menschenleben zu retten. An der TU Darmstadt entwickeln Forscher und Studierende Rettungsroboter, die in Krisensituationen Einsatzkräfte unterstützen sollen.

Nach schweren Naturkatastrophen gelingt die Bergung von Unglücksopfern oft nur unter Lebensgefahr der Retter. Im Untergeschoss des Alten Hauptgebäudes der TU Darmstadt arbeitetet Team ‘Hector‘ mit Hochdruck daran, dass sie schon bald selbstständig Menschen aus Gefahrenzonen retten. 
Unter der Führung von Prof. Oskar von Stryk, Leiter des Fachgebiets Simulation, Systemoptimierung und Robotik im Fachbereich Informatik, forscht ein junges Team aus Studierenden und wissenschaftlichen Mitarbeitern an Fragestellungen, wie Roboter sich in unbekannten Um-gebungen zurechtfinden und autonom handeln können. Kevin Daun erklärt, in welchen Gefahrensituationen solche Roboter zum Einsatz kommen:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Prominenter Einsatzort eines Roboters war vor kurzem die Pariser Kathedrale Notre Dame während des aufsehen-erregenden Brands. Der Roboter ist einen geraden, breiten Gang entlanggefahren, hat das Innere erkundet und die Feuerwehr bei  den Löscharbeiten unterstützt, berichtet Kevin Daun.
Zum Anfang
0:00
/
0:00
Audio jetzt starten
Unter der blinkenden Warnleuchte auf dem Kopf des Roboters, die den aktiven Betrieb anzeigt, befindet sich ein 3D-Scanner. Wie ein Mensch, kann Johnny  mit seinen Augen 3D sehen. Mit Hilfe seiner Hände undzweier Fingerpaare greift er Gegen- stände wie etwa einen Akkuschrauber oder räumt ein Hinder- nis aus dem Weg.


Audio öffnen

Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Nach oben scrollen
Nach links scrollen
Nach rechts scrollen
Nach unten scrollen

So groß bin ich

Zum meiner Sicherheit

Mein Gehirn

Meine Power

Mein Antrieb

Zum Anfang
Basierend auf den bei Team Hector gesammelten Erfahrungen, bringt das von Mitgliedern gegründete Start-Up ‘Energy Robotics‘ schon jetzt Roboter in die industrielle Anwendung. So kommen die Roboter des jungen Unternehmens z. B. schon auf niederländischen und belgischen Öl- und Gasplattformen zum Einsatz. Dort unterstützen sie die Arbeiter bei Ihren gefährlichen Aufgaben: Der Roboter, der einem großen Staubsauger aus Metall ähnelt, fährt auf den Plattformen farblich markierte Strecken ab und misst mit seinen Sensoren kontinuierlich Gaskonzentrationen.


Zum Anfang
Jasmin, ebenfalls einer der Roboter des Teams, ist in ihrem Tun schon wesentlich weiter als Johnny. Basierend auf einem Kettenantrieb und mit Hilfe zahlreicher Sensoren und Kameras, erkundet der kleine Roboter autonom und vollautomatisch die Umgebung. Hindernisse überwindet Jasmin mit Hilfe ihrer Assistenzfunktionen, umgeht sie oder räumt sie mittels des Greifarms aus dem Weg.  Aber was daran ist künstlich intelligent?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
In absehbarer Zeit und mit verfügbaren Technologien hält Kevin Daun den Schritt in Richtung einer assistierten Rettung für durchaus realistisch. Vorstellbar wäre beispielsweise eine autonome Trage, die Verletzte aufnimmt und transportiert. Volle Autonomie sieht Daun als Fernziel: „Wie auf dem Weg zum autonomen Fahren, wird es auch in der Rettungsrobotik zunächst autonome Assistenzfunktionen geben, die die Bedienung des Roboters einfacher machen.“
Zum Anfang

Tech Quartier

Ein Ort voller innovativer Ideen, mitten in Frankfurt an der Messe: Das drei Jahre junge Tech Quartier ist Hessens Hoffnungsträger, in Sachen künstliche Intelligenz.
Ziel: Mit der internationalen Konkurrenz mitzuhalten.
Zum Anfang
Ein großes offenes Büro. Schreibtischreihe hinter Schreibtisch-reihe und an jedem Tisch sitzt ein anderes Tech-Start-Up. Zum Telefonieren oder Reden ziehen sich die jungen Mitarbeiter in eine der Nischen zurück und nehmen auf einem Flugzeugsessel Platz – abgeschirmt von schallisolierten Glastüren.
Wir sind in der Mainmetropole Frankfurt, daran kann kein Zweifel sein. An der „Bembel-Bar“ gibt es in der Pause nicht unbedingt Apfelwein, sondern eher mal eine Fritz-Kola. Die „Bar“ ist vielmehr eine Küchenzeile mit Theke, die so cool aussieht, wie sie heißt.


Zum Anfang
Daran grenzt das „Waldstadion“ an. Nein, nicht die echte Commerzbank-Arena, sondern der Event-Space, in dem – wie der Name schon sagt – Veranstaltungen stattfinden. Das Repertoire hierbei reicht von „Pitch Events“, bei denen junge Gründer ihre Ideen erfahrenen Investoren präsentieren, bis hin zu regelmäßigen „Meetups“ und „Bootcamps“.

Hier entsteht also Innovation. Zumindest war das die Intention von Tech Quartier-CEO Dr. Sebastian Schäfer, als er es 2016 gründete. Und diese Innovation ist, genau wie die Mitarbeiter – vor allem jung, frisch und entsprechend dynamisch. Nur so konnte es das Tech Quartier schaffen, innerhalb von knapp drei Jahren zum Hessischen Dreh und Angelpunkt zu werden für – naja, für was denn eigentlich?


Zum Anfang
Denn das Tech Quartier stellt nicht nur einfach Büroflächen, an inzwischen vier Standorten in Frankfurt, für Start-Ups zur Verfügung. Das Tech Quartier ist vielmehr ein großes Netzwerk. Vernetzt wird jeder, der Lust hat, mitzumachen und die unter-nehmerischen Voraussetzungen mitbringt: In erster Linie Start-Ups mit Unternehmen, Technologiefirmen und Investoren aber auch Regierungspartnern und akademische Institutionen. Eben alles, was Teil des Ökosystems ist. Gemeint sind hierbei alle relevanten Akteure der Start-Up-Szene. Gemeinsam, rund um den Globus, gestaltet man die Zukunft in den verschiedensten technologischen Bereichen. Das geschieht über Programme, Projekte und Veranstaltungen, bei denen auch immer stärker das Thema künstliche Intelligenz in den Fokus rückt.
Zum Anfang
Doch das, was heute ist, musste erst mit viel Kraft aufgebaut werden. Einer der ersten Mieter war das Start-Up Intelligent Data Analytics (IDA). „Als wir im November 2016 einzogen, war das Tech Quartier noch Baustelle“, erinnert sich IDA-Geschäfts-führer Hamedo Ayadi. Zu dieser Zeit sei das Tech Quartier noch in der Findungsphase gewesen. „Bis auf die Räume und ein paar Unternehmen, gab es nicht viel. Jeder musste mit an-packen“, so Ayadi. Seine Firma habe mitgeholfen, Veran-staltungen zu organisieren, die Community aufzubauen und neue Netzwerke zu bilden. Unter anderem habe sie Workshops zu Deep Learning KI mitgestaltet.
Zum Anfang
Deep Learning – ein Thema mit dem man sich bei IDA besonders gut auskennt. Moira heißt eine der Lösungen, die IDA seinen Kunden zur Verfügung stellt. Der Name kommt aus der griechischen Mythologie. Die Schicksalsgöttin Moira spinnt bei der Geburt den Faden des Lebens und weiß, wie es verläuft. Moira bei IDA ist eine Software-Plattform, die es schafft, mit Hilfe von künstlicher Intelligenz, Daten aus den unter-schiedlichsten Quellen zu verbinden und somit für ein Unternehmen nutzbar zu machen.


Zum Anfang
In einem aktuellen Projekt soll Moira in Züge der Deutschen Bahn eingebaut werden und diese voll digitalisieren. Ein breit gefächertes System an Kameras und Sensoren erhebt Daten aller Art, die Moira dann nutzt. Zusätzlich wird Moira mit den Datenbanken des Unternehmens verknüpft und kann auf diese Weise zum Beispiel das Problem eines Klimaanlagenausfalls lösen. Denn Klimaanlagen fallen nicht plötzlich aus, sondern es gibt vorher Anzeichen für diese Störung. Mittels Sensoren an der Anlage erkennt Moira die Systemleistung bei 100 Prozent. Fällt der Wert ab, schlägt sie Alarm.

Die Verknüpfung mit den Daten des Fahrplans lässt erkennen, wo und wie lange der Zug als nächstes hält. Daten der Schicht-pläne der Servicemitarbeiter wiederum könnten dann automatisiert einen Termin vorschlagen, an dem die Anlage repariert werden soll. Ist der Termin akzeptiert, geht eine Benachrichtigung an die Beteiligten raus. Das Logistikzentrum wäre informiert, welches Produkt gebraucht wird, der Service-mitarbeiter wüsste, wann er welche Klimaanlage in welchem Zug reparieren soll. Und der Zug kennt ohnehin seine Strecke.


Zum Anfang
Auch Sensoren in den Fahrgasträumen könnten Moira nützlich sein. So liefern Daten vom Druck im Innenraum, der Luft-feuchtigkeit, des Geräuschpegels und freier Sitzplätze wertvolle Informationen. Der Passagier könnte über eine App sehen, wo ein Platz frei ist, ohne suchend von Abteil zu Abteil zu gehen. Über das Nutzerverhalten des Passagiers könnte Moira zudem Sitzplatzvorschläge machen. Angenommen, ein Fahrgast sitzt gerne am Fenster, an wärmeren Plätzen mit wenig Geräuschen, entsprechend würde Moira schon beim Ticketkauf eine entsprechende Empfehlung abgeben.

Das könnte also die Zukunft des Bahnfahrens sein. Das IDA-Projekt ist in Zusammenarbeit mit Cisco und SAP entstanden. Derzeit verhandelt das Unternehmen noch mit der Deutschen Bahn. Und wie so oft, wenn Entscheidungen von Kolossen getroffen werden sollen, ist es mühselig. Denn Kolosse sind vor allem eines: langsam.


Zum Anfang
Das, was trägen Unternehmen fehlt, findet sich im Tech Quartier im Überfluss: Agilität, Spontanität und der Wille zur Veränderung. Auch deshalb steht Sebastian Schäfer seit der Gründung im steten Austausch mit dem Land Hessen, das sich als Taktgeber in Sachen digitale Innovation sehen möchte. Erst Ende vorigen Jahres erarbeitete man ein gemeinsames Konzept, um das Thema Künstliche Intelligenz am Standort Frankfurt voranzutreiben. Im Vorfeld gab es Untersuchungen, die ein enormes Potenzial im Frankfurter Ökosystem für KI diagnostizierten. Lediglich die Aktivierung des Potenzials und die strukturierte Verknüpfung tragender Akteure fehlte. An diese Stelle tritt nun das Tech Quartier, das in den kommenden Jahren die KI-Initiative antreiben soll. Es stützt sich auf drei primäre Konzept-Säulen: Community Building, eine umfassende Datenbank und Fonds.


Zum Anfang
Ersterem hat sich das Tech Quartier bereits ausführlich angenommen: „Wir haben die Growth Alliance AI als Boot-Camp und ein AI-Event mit der Goethe Universität durch-geführt und auch im zweiten Halbjahr 2019 ist eine ganze Serie von AI-Events mit unterschiedlichen Industrievertretern geplant“, erklärt Schäfer. Intern sei man jetzt dabei das zweite Thema aufzugreifen: eine cloud-basierte Finanzdatenbank. Doch um von hier aus weiter in Richtung Fonds und gezielte Unterstützung zu gehen, müsse Kapital fließen. Und dafür müsse auch das Budget, nicht nur aus dem Landes-, sondern auch aus dem Bundeshaushalt eingebunden werden.


Zum Anfang
Noch ist das Tech Quartier allerdings kein Teil der Bundes-strategie Künstliche Intelligenz, die im November 2018 von der Bundesregierung vorgestellt wurde. Mit ihr soll Deutschland, zusammen mit Europa, zu einem führenden Standort für KI-Technologien werden. Mit der Nennung der Finanzindustrie in der Bundesstrategie, ist dem Finanzstandort Frankfurt aller-dings ein erster wichtiger Schritt gelungen. „Noch geht es sehr regional zu“, findet Gemma Ferst, Ökosystem-Managerin des Tech Quartiers und des Landes Hessen. Sie ist zum einen dafür verantwortlich, das Hessische Ökosystem für Start-ups auf-zubauen und zum anderen Programme und Partnerschaften für den Aufbau der KI-Initiative zu entwickeln. Für sie sei es ganz normal, zuerst regional auf ein Bundesland bezogen, zu untersuchen, welche Projekte man angehen möchte. „Ich denke, es ist wichtig, gerade beim Thema KI, sogenannte Bold Pilots zu machen. Also eine gewisse Faktenlage schaffen, Dinge versuchen und offen sein, für gemeinsame Innovationen mit den Partnern“, so Ferst.

Trotz dieser Regionalität spricht Ferst nicht von einer Konkurrenzsituation der Bundesländer, sondern eher von „stronger together“. Auch deshalb versuche das Tech Quartier als Teil der DE Hub Initiativesich schon jetzt mit anderen Bundesländern auszutauschen. Von diesen könne man zwar einiges lernen, zentral sei es aber, Hessen nach vorne zu bringen: „Wir müssen jetzt schon für Übermorgen denken. Und nicht gucken was zum Beispiel Nordrhein-Westfalen macht, sondern was richtig für Hessen ist und was Hessen voranbringt. Auch nach internationalen ‚best practices‘“.




Zum Anfang
Dass die internationale Konkurrenz – allen voran USA und China – beim Thema künstliche Intelligenz sehr weit voraus ist, darüber sind sich Schäfer, Ferst und Ayadi im Klaren. Allerdings gebe es auch Bereiche, in denen man einiges an Boden gut machen könne. „Es bietet sich an mit der Finanzbranche zu starten. Hier hat Frankfurt seinen Wettbewerbsvorteil. Dass man sich dann auch für die anderen Industrien öffnet, steht außer Frage“, erklärt Schäfer. Ferst sieht auch in Fragen der Ethik ein enormes Potenzial für den Deutschen KI-Sektor: „Wir können vielleicht nicht den Vorsprung von USA und China aufholen, wir können aber für Ethik, Menschenrechte und Datenschutz stehen“. So könne eine gewisse Attraktivität für deutsche KI-Lösungen geschaffen werden.


Zum Anfang
Das Wichtigste sei jedoch, einfach anzufangen und Dinge umzusetzen, findet Ayadi: „Wir dürfen nicht so viel nach links und rechts schauen. Die anderen Länder sind uns meilenweit voraus. Das fängt schon bei der Investitionsbereitschaft an. Hier tut sich Deutschland durch Bürokratie und langsame Entscheidungen noch schwer.“ Schäfer ist sich jedoch sicher, dass die „Zutaten“, die KI möglich machen, heute bereitstehen – auch in Frankfurt.


Zum Anfang

Autonomes Fahren

Autonomes Fahren ist vielleicht gar nicht so sehr Zukunfts-musik, wie manch einer glaubt. Wer heutzutage einen Parkassistenten als Feature in seinem Auto hat, der besitzt bereits ein Fahrzeug mit der autonomen Fahrstufe Level 1. Als autonome Systeme in Pkws gelten schon jene, die viele Autofahrer jeden Tag nutzen ohne es zu wissen. Spurhalte-systeme, eine automatische Abstandssicherung, oder das alleinige Bremsen in Gefahrensituationen wirken ohne das Eingreifen des Fahrers und gelten daher als autonome Systeme.

Forscher an der Frankfurter Goethe-Universität arbeiten im Bereich des autonomen Fahrens intensiv daran, dieses bereits vorhandene Wissen zu fundieren und zu erweitern – mit Hilfe von künstlicher Intelligenz.
Zum Anfang
Rudolf Mester, Professor am Institut für Informatik, leitet in seinem Team für „visuelle Sensorik“ die Forschung zu diversen Systemen, die es Autos ermöglichen, sich ohne den Einfluss von Menschen durch die Straßen zu bewegen. Wer selber Auto fährt, weiß, auf wie viele Dinge man gleichzeitig achten muss und wie schier endlos die Liste der Ereignisse ist, die im Straßenverkehr geschehen können.

Zum Anfang
Selbstfahrende Fahrzeuge müssen alle möglichen Objekte auf und neben der Straße erkennen – und als Gefahr oder als irrelevant kategorisieren können. 
Das sogenannte Propagation-Based-Tracking-System (PbT) ist eines von vielen Verfahren, das unter anderem zur Erkennung der Umwelt dient. Kameras und Sensoren scannen und erkennen sich bewegende Objekte in einem bestimmten Radius rund um das Fahrzeug. Das Fahrzeug erkennt und merkt sich Objekte im Straßenverkehr und überträgt deren Verhalten auf in der Zukunft eintretende Szenarien. Verhaltensweisen von anderen Autos, Radfahrern, Fußgängern, aber auch ruhenden Objekten wie Pollern, oder Bordsteinkanten werden analysiert und gespeichert.

Zum Anfang
Bei solchen Verfahren kommen Techniken des maschinellen Lernens zum Einsatz, die mit sogenannten tiefen neuronalen Netzen das Aussehen von Objekten erlernen und dann später in Bilddaten wieder erkennen. Das Interessante hierbei ist, dass intelligente Fahrzeuge miteinander kommunizieren können. Ein ständiger Informationsaustausch gestaltet das „gemein-same Fahren“ deutlich sicherer. Gefahreneinschätzung und der mögliche Eintritt diverser Situationen werden abgeglichen – und so kann eine Wahrscheinlichkeit eines eintretenden Szenarios errechnet werden.
Zum Anfang
Damit ein Fahrzeug weiß, wie es sich in verschiedenen Situationen zu verhalten hat, muss es diese Verhaltensweisen zuerst erlernen. Da das nicht auf öffentlichen Straßen umsetzbar ist, hat das Team von Rudolf Mester in Frankfurt ein System entwickelt, welche eine virtuelle Welt erschafft, um so die Technik, die später im Fahrzeug eingesetzt werden soll, zu testen. „Auf echten Straßen können Sie ein Auto nicht gegen ein Hindernis fahren lassen, um ihm beizubringen, dass er eine Gefahr darstellt. In einer virtuellen Welt schon“, so Mester.
Zum Anfang
Das sogenannte Joyride funktioniert ähnlich wie ein Computer-spiel, was es für die Tests der Systeme prädestiniert. Es ist quasi eine Fahrschule für Roboter. Diverse Unfall- und Ge-fahrenszenarien können beliebig oft simuliert werden, um so der Software für alle erdenklichen Fälle die besten Verhaltens-weisen beizubringen. In Kombination mit kleineren Assistenz-systemen wie einer automatischen Beschleunigung, Blink-assistenten, oder der Fähigkeit des selbständigen Überholens, wäre es nun möglich, ein Kraftfahrzeug autonom fahren zu lassen. Doch die Technik ist heute noch nicht so weit. „Die Flut an potenziell eintretenden Ereignissen ist immer noch zu groß und es bedarf weiterer Forschung“, sagt Rudolf Mester. Aber wie intelligent sind KI-Systeme heute?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Dass noch keine selbstfahrenden Autos über die Straßen fahren, liegt allerdings nicht an der Technik. Es gibt weltweit bereits viele Versuchsfahrzeuge, die sich mit einem Sicherheits-fahrer hinter dem Steuer durch den Straßenverkehr bewegen können. Auch der Gesetzgeber zieht den Autobauern einen Strich durch die Rechnung: Zu viele offene juristische Fragen im Falle eines Unfalls verhindern den Vorstoß der autonomen Technik. In der Frage wer für Schäden durch ein autonomes Fahrzeug haftet, gibt es allerdings schon eine Antwort:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Abgesehen von technischen oder gesetzlichen Hürden, gibt es ein weiteres Problem, das vor einer kommerziellen Reife zu lösen ist: Kommunizieren zwei digitale Systeme miteinander, so entstehen Schnittstellen. Kurz: Hier liegen Angriffsflächen für Cyberattacken. Forscher arbeiten gezielt daran, das Ein-dringen in jene Systeme als unmöglich zu gestalten. „Es wäre fatal, wenn ein Hackerangriff dem Auto während der Fahrt die Kontrolle entzieht“, sagt Mester.

Zum Anfang
In der Praxis des autonomen Fahrens kommen auf die Entwickler aber auch moralische Fragen zu. Ein Beispiel: Eine junge Frau rast auf einen Betonfeiler zu. Sie bemerkt, dass ihre Bremsen versagt haben, sie nur noch nach rechts ausweichen kann, um ihrem sicheren Tod zu entgehen. Am rechten Straßenrand steht allerdings ein Kind, welches sie überfahren müsste, würde sie dorthin ausweichen. Was heute in Milli-sekunden rein intuitiv von Menschen entschieden wird, muss beim autonomen Fahren der Zukunft eine KI entscheiden. Aber wie bemisst man den Wert von Menschenleben? Prof. Wolfgang Schröder erklärt:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

Rund 65 Millionen Menschen sind weltweit von COPD betroffen, einer chronisch-obstruktiven Lungenerkrankung, die vom Nikotinkonsum ausgelöst und beschleunigt werden kann. Die Krankheit tritt in etlichen Varianten auf – sie frühzeitig zu erkennen und mit der jeweils richtigen Therapie zu behandeln, ist schwierig. Professor Bernd Schmeck, Leiter des Instituts für Lungenforschung an der Philipps-Universität Marburg, und sein Team wollen das Problem mithilfe Künstlicher Intelligenz (KI) lösen.  
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Das Krankheitsbild von COPD setzt sich zusammen aus einer Entzündung der Atemwege und einer Zerstörung des Lungengewebes. Aufgrund der Atemwegsverengung leiden viele Patienten nach ein paar Treppenstufen oder anderen sportlichen Aktivitäten an Luftnot und verstärkter Schleimproduktion – auch bekannt als Raucherhusten.

COPD wird bei Patienten in der Regel erst sehr spät festgestellt, sodass der Verlauf der Krankheit nicht mehr gestoppt werden kann. „Das ist ein großes Problem", hebt Schmeck hervor. Möglicherweise beginne die Erkrankung bereits mit Mitte Zwanzig ohne erkennbare Symptome.
Zum Anfang
Die neue Software soll hier Abhilfe schaffen. Sie soll herausfinden helfen, wer besonders empfänglich ist und wie sich die Krankheit in einem früheren Stadium erkennen lässt. „COPD ist eben keine einheitliche Erkrankung, bei der jeder Patient dem anderen gleicht", erklärt Schmeck. „Es gibt etliche Untergruppen, von denen wir einige kennen und andere wiederum nur erahnen." Es gebe bereits Behandlungs-möglichkeiten für solche Untergruppen, doch dafür müsse der richtige Patient der richtigen Therapie zugewiesen werden. Und genau hierbei soll die KI mithilfe des maschinellen Lernens die Ärzte unterstützen.
Zum Anfang
Damit die KI Krankheitsbilder erkennen und auswerten kann, muss sie sie zunächst kennenlernen. Dazu pflegen die Forscher Daten von mehr als 6.000 Menschen – das entspricht der Einwohnerzahl einer Kleinstadt – in das System ein. Zu den Daten zählen unter anderem Lungenfunktionswerte, Erbinformationen, Röntgenbilder und Krankheitsverläufe. Damit soll die Software neue Verdachtsfälle erkennen, den Krankheitsverlauf vorhersagen und die optimale Therapie vorschlagen.

Das funktioniert so: Wird ein Patient ins System eingepflegt, kann er in ein sogenanntes Cluster fallen. Die Cluster kann man sich wie eine Wetterkarte vorstellen – mit abgegrenzten Flächen und verschiedenen Farben. „Es werden Patienten identifiziert, die sich nicht nur ähnlich sind, sondern insgesamt als Gruppe Analogien besitzen, die sie von anderen Gruppen wiederum unterscheiden", erklärt Professor Schmeck.
Zum Anfang
Angenommen 500 der COPD-Patienten leiden an einer Stoffwechselerkrankung und besitzen eine hohe Wahrscheinlichkeit an Diabetes zu sterben: Das Cluster, dem die Patienten zugeteilt werden, betrachten Schmeck und seine Kollegen genau. Im nächsten Schritt wird verglichen und geprüft, welches Medikament zur Behandlung eingesetzt werden könne. „Dabei schauen wir nach Komplikationen, die für den Patienten besonders gefährlich sein könnten", sagt der Mediziner. „Das ist keine Momentaufnahme, sondern wir beobachten und verfolgen diese Patienten über Jahre hinweg."
Zum Anfang
Die KI soll die Mediziner unterstützen, um das bestmögliche Ergebnis für den Patienten zu erzielen. „Die Software wird eine Hilfe für den Arzt in der Praxis oder im Krankenhaus sein und Dinge in Betracht ziehen, die ihm nicht offensichtlich gewesen wären", ist der Professor überzeugt. Den Arzt ersetzen, könne sie nicht. Die eigene klinische Erfahrung bleibt laut Schmeck immer das Wichtigste und ist für ihn auch das, was ein Vertrauensverhältnis zwischen Arzt und Patient ausmacht.
Zum Anfang

Rechtsabbiegeassistent

Der Einsatz künstlicher Intelligenz in Fahrzeugen soll nicht nur helfen, Verkehrsunfälle zu vermeiden, sondern auch dafür sorgen, dass die Fahrt für die Insassen so angenehm wie möglich wird. Zu Besuch bei den Expertinnen, die am „Digital Companion“ feilen.

Keine Verkehrsunfälle. Keine Verkehrstoten. Für Pia Dreiseitel ist das Vision und Auftrag zugleich. An dieser „Vision Zero“ forscht sie mit ihrem Team seit zweieinhalb Jahren für das Unternehmen Continental im House of Logistics and Mobility (Holm) am Frankfurter Flughafen. „Bei diesem System geht es um Fahrradfahrer oder auch Fußgänger, die von rechts abbiegenden Autos oder insbesondere Lastwagen erfasst werden könnten. Das geht immer wieder tödlich aus. Wir denken, dass wirklich eine Lösung erschaffen werden kann, die man mit Kamera und künstlicher Intelligenz bauen kann.“
Zum Anfang

Es wird aber nicht noch ein zusätzlicher Spiegel die Aufmerksamkeit des Fahrers verlangen: In einem LKW der Zukunft wird ein Alarm an den Autofahrer gesendet und zum Beispiel ein Signalton ertönen, wenn sich jemand im toten Winkel befindet. In einer akuten Gefahrensituation wird das System selbst eingreifen und einen Notstopp erzwingen können.

Das System erkennt die Bewegungen von Passanten, auch, wenn sie sich auf einem Fahrrad fortbewegen. Dabei werden alle Gliedmaßen einzeln definiert: Arme, Beine, auch der Kopf, die dann zu einer Person zusammengesetzt und als Skelett dargestellt werden. 

LKW-Fahrer übersehen aus ihrer hohen Kabine heraus zu leicht Radfahrer, was auch am toten Winkel liegt. Besonders Vorfahrts- und Abbiegeunfälle bergen Risiken. Die Einführung eines Rechtsabbiegeassistenten könnte ein Schritt gegen die Hauptursache für Radunfälle mit Todesfolge sein.

„Momentan geht es bei dem System darum, Personen zu erkennen. Im nächsten Schritt dann auch darum, zu wissen, wohin werden sie sich bewegen? Werden sie meinen Weg als Autofahrer kreuzen?“, erklärt Dreiseitel.

Zum Anfang
Gleich nebenan im Holm arbeiten Kollegen am „Digital Companion“, dem Assistenten im Innenraum des Autos. Hier wird an folgenden Szenarien geforscht: Ein Mann fährt auf dem Weg zur Arbeit seine beiden Töchter in den Kindergarten. Ihre Vorfreude auf den neuen Tag spürt nicht nur der Vater, sondern auch sein Auto. Und so erklingt, wie von Zauberhand, die Lieblingsmusik der Kinder. Und sobald die beiden Kinder abgeliefert sind, ertönt die Musik von Rammstein aus den Boxen, denn das Auto kennt die Vorlieben seines Fahrers. Und mehr noch: Es soll irgendwann auch erkennen können, dass der Mann am Steuer eine schlechte Nacht hatte – und ist jederzeit bereit, dem Fahrer zu assistieren.
Zum Anfang
Dass diese Situation irgendwann keine Zukunftsmusik mehr sein wird, sondern Realität, hat auch mit Empathie zu tun. Sie ist eine der Schlüsselkompetenzen des Menschen – und derzeit noch einer der wesentlichen Unterschiede von Mensch und Maschine. Genau wie zuvor Intelligenz im Kontext der Algorithmen und Maschinen definiert wurde und zu Künstlicher Intelligenz wurde, kann Empathie für den Innenraum eines Fahrzeugs definiert und verwirklicht werden, glauben die Forscher. Hier soll eine intuitive Interaktion zwischen Mensch und Maschine möglich sein. „Das Auto muss fähig sein, uns wahrzunehmen und zu erkennen, wie es uns geht, ob wir müde oder abgelenkt sind, womit wir uns beschäftigen“, erklärt Corina Apachite, Leiterin des Bereichs Künstliche Intelligenz in der Division Interior bei Continental in Babenhausen. „Sind wir in einer Telefonkonferenz, streiten wir miteinander, muss der Fahrstil an die Insassen angepasst werden? An diese Erkennt-nisse muss sich das Auto richtig anpassen. An solchen Algorithmen arbeiten wir.“
Zum Anfang
Teil dieser Vision ist auch der „Digital Companion“. Dieser digitale Begleiter soll verschiedene Rollen annehmen können und als Helfer, Coach oder Unterhalter zur Seite stehen. Mit seiner Hilfe wird das Auto den Fahrstil des Fahrers unter-stützen, um sein Fahrerlebnis zu optimieren. Auch Werte wie Atmung, Herzschlag, Blutdruck, Gesichtsausdruck und auch die Körpersprache könnten Sensoren zukünftig wahrnehmen. Voice-Dienste analysieren die Stimme und erkennen Stress und andere Emotionen. Daraufhin folgt die Entscheidung zur Handlung der Maschine, entsprechend dem Wahrge-nommenen.

Ziel ist, dass das Auto so gesteuert wird, dass es den Präferenzen von Fahrer und Mitfahrern entspricht. Außerdem werden gesammelte Daten und Informationen zu den Personen ausgewertet, um bestmöglich reagieren zu können. Zu diesen Informationen gehört etwa: Wer befindet sich im Auto? Was sind die Bedürfnisse der Menschen? Sind Kinder dabei?
Zum Anfang
Corina Apachite betont, dass diese persönlichen Daten zu jeder Zeit dem Fahrer gehören. Einen Wettbewerbsnachteil gegenüber China, wo die Privatsphäre inzwischen eine eher untergeordnete Rolle spielt, sieht Apachite nicht. Im Gegenteil, es könne auch ein Vorteil sein, den Deutschland mit dem Schutz der Daten für den User biete. Auch der Faktor Zeit spiele eine Rolle, erklärt Apachite: „Irgendwann hoffen wir, mit unseren Aktivitäten und mit dem Einsatz der KI einen Wert für die Nutzer zu generieren. Dieser Wert kann in Form von Zeitgewinn ausgedrückt werden: Wir gewinnen Zeit dadurch, dass wir nicht fünf Minuten brauchen, um das Navigationsziel einzugeben.“
Zum Anfang
Aber trotz der erwähnten Vorteile bleiben offene Fragen: Wie hoch ist die Akzeptanz gegenüber solcher Technologien? Sind wir schon bereit für diesen großen Schritt? Die Bericht-erstattung zeigt sich heute weniger skeptisch als noch vor zehn Jahren. Künstliche Intelligenz ist schon allgegenwärtig im Alltag, ohne dass es uns jedes Mal bewusst ist. Die Entwicklungsschritte funktionieren nur, wenn Technologie, Business und User sich auf gleichem Niveau befinden. Bleibt einer der Bereiche zurück, geht es erst wieder voran, wenn alle gleichauf sind. „Dabei geht es nicht um einen Wettbewerb zwischen Mensch und Maschine, sondern um die Ergänzung und Entlastung des Menschen durch Maschinen, auch durch künstliche Intelligenz“, sagt Apachite.

Vor allem geht es um Sicherheit, nicht nur im Hinblick auf autonomes Fahren. So werden in den USA schon vereinzelt Sensoren in Autos eingebaut, die Alkohol im Atem erkennen, sogenannte „Ignition Interlock Devices“. Immer mehr Staaten verlangen von Personen, die mit Alkohol am Steuer aufgefallen sind, eine solche Sperre einbauen zu lassen. Denn damit springt das Auto nur an, wenn der Fahrer nüchtern ist.
Zum Anfang

Meteore entdecken

Am 15. Februar 2013 trat ein Meteorit in die Erdatmosphäre ein, der als heller Feuerball am Himmel über Russland zu sehen war. Dieses Phänomen wurde größtenteils von Autokameras oder Passanten aufgenommen. 
In weniger besiedelten Gebieten wäre ein solches Schauspiel womöglich unentdeckt geblieben. Genau dieses Problem möchten Professor Hakan Kayal und sein Team von der Universität Würzburg mithilfe künstlicher Intelligenz im Projekt ASMET (kurz für: Autonomes Sensornetzwerk zur Detektion und Beobachtung von Meteoren) angehen. Schon der Prototyp hat viel zu bieten.
Zum Anfang

Objektiv/ Kamera

ASMET besitzt unter der Glaskuppel eine Kamera. Das Objektiv hat einen 130° Blick und ist auf den Himmel gerichtet. Die künstliche Intelligenz (KI) im System sorgt dafür, dass die Kamera auch wirklich nur Meteore aufspürt. Wieso das wichtig ist, erklärt Professor Kayal im nächsten Video.

Gehäuse

Hier befinden sich die Batterie, die Kühl- und Heizsysteme sowie das Computersystem zur Datenspeicherung, Datenverteilung und Datenarchivierung

Solarzellen

Die Solarzellen laden die Batterie von ASMET tagsüber auf, damit der Prototyp auch nachts laufen kann.

Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Im Grunde funktioniert ASMET über einen Bildbearbeitungs-algorithmus. Das System erkennt Bewegungen und zeichnet diese auf. Fast 20 Aufzeichnungen wurden anfangs pro Minute in einer Email von ASMET verschickt. Mittlerweile verzeichnet ASMET eine Rate von ungefähr zwei Aufnahmen pro Stunde.  

Diese Verbesserung verdanken Prof. Kayal und sein Team dem Einsatz von KI. Hierbei haben sie den Fokus zuerst darauf gelegt, dass das System Vögel erkennen kann, da sie der häufigste Grund für einen Fehlalarm darstellten. Mithilfe einer Vielzahl unterschiedlichster Vogelbilder lernte die Software, Vögel in der Luft zu erkennen und sie nicht aufzunehmen.  

Aber wie kam es überhaupt zu dem ganzen Projekt?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Schließen
Vorher/Nacher Ansicht

Vorher/Nachher-Ansicht starten
ASMET soll hauptsächlich Meteoriten aufspüren. Darunter versteht man im Allgemeinen ein Stück eines Asteroiden oder Kometen, der die Sonne umkreist. Sie haben eine ungefähre Größe zwischen etwa zehn Mikrometern und einem Meter. Meteore oder für uns bekannt als „Sternschnuppen“ sind die sichtbaren Flugbahnen von Meteoriten, die mit hoher Geschwindigkeit in die Erdatmosphäre eingedrungen sind. Ein Feuerball ist ein ungewöhnlich heller Meteor. Das Diagramm von Alan B. Chamberlin zeigt die Feuerbälle, die von 1988 bis 2019 aufgezeichnet wurden. Je größer der Kreis und „wärmer“ die Farbe (sprich gelb- bis rötlich), umso mehr Energie hatte der Feuerball.
Zum Anfang
ASMET ist bis jetzt nur ein Prototyp. Bis er voll funktionsfähig zum Einsatz kommen kann, müssen Prof. Kayal und sein Team noch ein paar Dinge verbessern. Vor allem die eingesetzte KI soll ausgebaut werden: Das System soll noch viel mehr eigenständig erkennen können – z.B. Insekten, Flugzeuge oder bestimmte Wetterverhältnisse. Auch der Regensensor muss noch verbessert werden: Momentan erkennt er nur für den aktuellen Moment, ob es regnet oder nicht und liefert Fehlinformationen, wenn zwar noch Regentropfen auf der Glasscheibe liegen, der Regen selbst aber schon längst aufgehört hat.  

Um solche Fehler zu beheben, benötigt die KI noch mehr Daten. Wie im Beispiel mit den Vögeln kann sie nur mithilfe einer Vielzahl von Bildern lernen, wie Regentropfen aussehen und den Unterschied erkennen, ob sie gerade erst auf der Glasscheibe gelandet sind oder dort schon länger „liegen“. Und auf genau dem gleichen Weg lernt das System, mit anderen Störfaktoren umzugehen. Dadurch soll es auf Dauer immer intelligenter werden und Fehlinformationen vermeiden.
Zum Anfang
Um die Aufspürungsrate zu verbessern, soll ASMET weiter ausgebaut und ausgestattet werden. Damit das klappt, müssen vor allem mehr Sensoren installiert werden. Aktuell besitzt ASMET einen optischen Sensor, also eine optische Kamera. Im nächsten Schritt soll das System zusätzlich mit einer Infrarot-Kamera ausgestattet werden.

Zudem sind weitere multispektrale Objektive geplant, die die optische Kamera unterstützen sollen. Mithilfe der weiteren Sensoren kann das System die verschiedenen Informationen miteinander vergleichen, um so die Wahrscheinlichkeit zu erhöhen, dass es sich bei dem entdeckten Objekt wirklich um einen Meteoriten handelt.
Zum Anfang

Politik & Gesellschaft

Zum Anfang

KI & Religion

Seit Jahrtausenden dient die Religion den Menschen als Anker. Dass intelligente Technologien Geschäftsprozesse verbessern können, klingt einleuchtend. Doch können sie auch in die heiligen Bereiche der Kirche und des Glaubens einziehen?

Benediktinermönch Pater Zacharias Heyes aus der Abtei Münsterschwarzach betrachtet die künstliche Intelligenz aus der religiösen Perspektive und liefert Antworten zu Fragen rund um Menschen, Kirche und Gott.
Zum Anfang
Roboter, die in Gottesdiensten eingesetzt oder als eigenständige Gottheit verehrt werden? Was auf den ersten Blick unglaublich klingt, wird durch die Kirche "The Way Of The Future" von Anthony Lewandowski Realität. Der Unternehmer möchte mittels Computercodes einen neuen Erlöser schaffen. Sein Gedanke dahinter: "Wenn etwas eine Milliarde Mal klüger ist als der klügste Mensch, wie soll man eine solche Instanz anders nennen als Gott?"

Unser Menschen- und Gottesbild basiert unter anderem auf Liebe, gegenseitigem Verständnis und der Vergebung der Sünden. Selbst wenn ein Roboter irgendwann Gefühle und Empathie empfinden könnte – wäre er jemals so verständnisvoll wie Gott? Könnte er uns unsere Sünden vergeben, wenn er aufgrund der Datenmasse in seinem "Kopf" niemals vergessen wird? Doch abgesehen davon: Kann eine KI Gott überhaupt jemals ersetzen? Pater Zacharias hat darauf eine eindeutige Antwort.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
In Wiesbaden ist die KI bereits in den Gottesdienst eingezogen: Hier ist der sprechende Segensroboter "BlessU-2" im Einsatz. Über einen Touchscreen können die Menschen mit ihm kommunizieren und ihn dazu auffordern, sie zu segnen. Daraufhin hebt der Roboter seine leuchtenden Arme und spricht dem Gläubigen vor sich gut zu – in einer von sieben Sprachen. Und wer möchte, kann sich den Segensspruch direkt ausdrucken lassen.

Die hessische Gemeinde reagierte auf das Experiment mit gemischten Gefühlen. Während manche "BlessU-2" interessant fanden, sprach sich eine Gläubige strikt gegen ihn aus: "Der Roboter sollte ins Technik-Museum kommen, nicht in unsere Kirche. Hier braucht man richtige Seelsorger mit Herz und Seele." Auch Pater Zacharias hat eine klare Meinung dazu, ob ein Segen von einem Roboter gültig ist.




Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Die Zehn Gebote sind ein Ur-Regelwerk der Bibel: Sie sollten im Christentum ein Leben lang eingehalten werden. Bestimmte KI-Technologien verstoßen jedoch gegen diese heiligen Vorschriften.

So heißt es schon im ersten Gebot: "Ich bin der Herr, Dein Gott. Du sollst keine anderen Götter haben neben mir." Wenn Anthony Lewandowski in seiner Kirche "The Way Of The Future" mittels KI einen neuen Gott erschafft, klingt dies stark danach, als ob er damit gegen diese heilige Vorschrift verstößt. Doch zählen KI-Gläubige überhaupt noch zu den Christen? Oder haben sie genauso wie Buddhisten oder Hinduisten das Recht darauf, an etwas anderes als den einen Erlöser zu glauben? Fragen, die vielleicht nur Gott allein uns beantworten kann.



Zum Anfang
Nicht nur das erste Gebot, sondern auch das sechste stellt im Bereich der intelligenten Technologien Konfliktpotenzial dar. Denn dieses besagt ganz klar: "Du sollst nicht töten." Über Leben und Tod soll also alleine Gott entscheiden dürfen. Für uns Menschen gilt das Töten als eine der schwersten Straftaten. Autonome Waffensysteme, die ohne den Befehl eines Menschen selbstständig schießen, gibt es schon seit einigen Jahren. Allerdings zielen diese bis auf ganz wenige Ausnahmen nur auf leblose Objekte.

Mittels KI erschaffene Kriegsroboter, auch "Killerroboter" genannt, könnten irgendwann ganz ohne menschliches Zutun auf dem Schlachtfeld stehen und autonom darüber entscheiden, wen sie töten. Ob sie dabei immer zwischen unschuldigen Zivilisten und feindlichen Angreifern werden unterscheiden können, ist zurzeit noch unklar. Die Forscher stehen hier vor einer Reihe ethischer und technischer Fragen, die noch gelöst werden müssen. 





Zum Anfang
So verrückt die genannten Ideen zum Einsatz von KI in der Religion auch klingen mögen, sie berühren urmenschliche, philosophische und theologische Fragen. Woher kommen wir, wohin gehen wir, und soll das hier schon alles sein?

Die Zukunft wird neue, spannende Antworten auf diese Fragen mit sich bringen. Ob ein Mensch an den christlichen Gott, viele hinduistische Götter oder schließlich an eine KI glaubt, sollte ihm jedoch auch weiterhin selbst überlassen sein. Laut Pater Zacharias ist es im Bezug auf unsere gesamte Gesellschaft jedoch wichtig, die Gefahren im Blick zu haben.


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

KI & Moral

Passen künstliche Intelligenz (KI) und Moral zusammen? Wie schaffen wir es, dass Maschinen unsere eigenen Stereotype nicht übernehmen? Wie bringen wir KI bei, dass sie den Beruf eines Wissenschaftlers oder einer Krankenschwester als geschlechtsneutral ansieht?

Hier setzt die Studie der Forscherinnen und Forscher am Centre for Cognitive Science der Technischen Universität in Darmstadt an. Professor Kristian Kersting, Leiter des Bereichs für Maschinelles Lernen, beleuchtet die Zusammenhänge.
Er ist Mitglied des interdisziplinären „Centre for Cognitive Science“ und möchte mit seiner Forschung dazu beitragen, ein Bewusstsein für maschinelles Lernen und den richtigen Umgang mit Daten zu schaffen. Am Donnerstag gab die TU Darmstadt bekannt, dass Kersting zum Fellow der „European Association for Artificial Intelligence“ ernannt worden ist. Das Programm zeichnet Forscher aus, die auf dem Gebiet der KI „kontinuierlich herausragende Beiträge erbracht haben“.
Zum Anfang
Ich finde die Erforschung der künstlichen Intelligenz extrem spannend. Wie können Maschinen Texte verstehen, und wie können sie lernen? Wie agieren Roboter in der physischen Umwelt? Das zu erforschen macht uns Spaß, weil wir all diese unterschiedlichen Fragestellungen zusammenführen können.

Aber wir müssen bei aller Euphorie auch aufpassen: Viele der aktuellen Forschungen werden von kommerziellen Firmen stark gepusht. Das heißt, man sollte immer bedenken, ob Forschungsergebnisse neutral bewertet wurden oder doch Geschäftsinteressen dahinterstecken. Es freut mich aber natürlich, dass KI heute eine so große Aufmerksamkeit be-kommt. Vor zehn Jahren war man im Vergleich dazu nur ein einfacher Informatiker, der sich mit KI befasst hat – ohne dass viele Menschen sich dafür interessiert hätten.
Zum Anfang
Wir müssen die Diskussion vorantreiben, um aufzuklären. Aktuell wird sie etwas überhitzt geführt, weil es ein sehr schwieriges Thema ist, das auch zum Teil die Grundfesten unseres menschlichen Daseins infrage stellt. Dabei ist momentan längst nicht so viel möglich, wie gerne in den Nachrichten suggeriert wird. In der öffentlichen Diskussion wird die Maschine immer gleichgesetzt mit dem Menschen. So weit sind wir in der KI-Forschung nicht, das wird noch ein paar Jahre, wenn nicht Jahrzehnte oder vielleicht Jahrhunderte dauern. Was wir momentan sehen ist, dass es ganz viele KI-Systeme gibt, die in Form einer „Inselbegabung“ sehr viel leisten. Aber ein Mensch hat in der Regel eben nicht nur eine Inselbegabung, sondern kann sehr viele Aufgaben meistern und darin sehr gute Leistungen erbringen.
Zum Anfang
In der öffentlichen Diskussion, insbesondere in Deutschland, aber auch weltweit, stellt sich die Frage, ob wir in wichtigen Anwendungen Maschinen dazu bekommen, unsere Moral-vorstellungen zu übernehmen. Und wenn ja, wie könnte das funktionieren?
Wir sind für unsere Studie von den Stereotypen ausgegangen, die es geben kann. Denn wir haben festgestellt, dass Maschinen, wenn sie sich viele von Menschen geschriebene Texte anschauen, die Stereotype und Vorurteile übernehmen, die darin zum Tragen kommen. Wir müssen aufpassen, dass die Daten, die wir diesen Maschinen zum Lernen geben, unter Umständen unsere Vorurteile reflektieren. Das klassische Beispiel hierfür ist, dass Männer häufiger mit Wissenschaft in Verbindung gebracht werden als Frauen. Es gibt Techniken in der wissenschaftlichen Fachliteratur, um dieses Vorurteil, diese Verzerrung automatisch herauszurechnen. Die Maschinen müssen sich neutral verhalten, sie dürfen sich in ihrem Lernprozess nicht unsere Vorurteile aneignen. Alle existierenden KI-Studien halten uns einen Spiegel vor: Sie sagen viel mehr über uns Menschen aus als über die Maschine selbst.
Zum Anfang
Dieses System nimmt eine große Anzahl von Texten, die von Menschen geschrieben wurden, und wandelt diese in Algorithmen um. Dann wird aus diesen Algorithmen eine Art „Landkarte“ erstellt. Jeder Punkt auf der Landkarte gehört jetzt einem Satz, wie beispielsweise „Sollte ich meinen Hamster toasten?“ oder „Sollte ich einen Menschen töten?“
Zum Anfang
Das ist möglich durch die Berechnung der Distanz zwischen einer moralischen Fragestellung und ihren zwei Antwort-möglichkeiten, „Ja, das sollte man“ und „Nein, das sollte man nicht“. Wenn die Sätze sehr nah beieinander auf dieser „Landkarte“ liegen, dann haben sie semantisch, also von der Bedeutung her, sehr viel miteinander gemein. Gemäß den zwei Antwortmöglichkeiten registriert die Maschine, dass sie etwas tun sollte, wenn sie näher an der Antwort „Ja, das sollte man“ liegt; genauso wie bei einer kürzeren Strecke, wenn sie etwas nicht tun sollte. So lernt das System beispielsweise, dass man anstelle eines Hamsters lieber ein Toastbrot in den Toaster stecken sollte und dass es falsch ist, einen Menschen zu töten.
Zum Anfang
Das geht noch nicht. Wir können die Moral nicht extrahieren und Regeln aufschreiben, im Sinne von „Das sollte man tun“ und „Das sollte man nicht tun“. Wir hatten überlegt, das KI-System mit einfachen moralischen Fragen, die wir alle kennen und mit einem klaren „Ja“ oder „Nein“ beantworten können, auszustatten. Diese Einbettung von Fragen und Antworten ermöglicht dem System, die Distanz zwischen den Begriffen zu ermitteln und damit herauszufinden, wie stark sie inhaltlich miteinander verknüpft sind. Dennoch entwickelt das KI-System im Experiment durch die Analyse großer Textmengen eine menschenähnliche, nahezu moralische Ausrichtung.
Zum Anfang
Das ist richtig. Wir haben dem KI-System etwa die Frage gestellt: „Sollte ich einen Menschen töten?“ Wir haben bei unserer Auswertung schnell gemerkt, dass es nicht nur eine Variante des Wortes „töten“ gibt, sondern mehrere. Also haben wir angefangen, mehrere Schablonen von diesem Wort zu erstellen. Das stabilisiert das System, und es erkennt anders formulierte Fragen besser.
Zum Anfang
Die Gefahr besteht. Zwar ist es möglich, Maschinen im Zusammenhang mit einfachen moralischen Fragestellungen etwas neutraler zu machen, dennoch könnte das unter Um-ständen auch negative Folgen haben. Es wäre fatal, wenn wir Maschinen darauf trainieren würden, gleichgültig über das Leben eines Menschen zu entscheiden oder ihn womöglich auch zu töten.
Aber das ist nicht ein Problem dieser Studie, sondern ein allgemeines Problem von automatisierten Prozessen. Wenn man es darauf anlegen möchte, kann auch ein Auto eine Mordwaffe sein, und so können Algorithmen nicht unbedingt immer vorteilhaft sein.
Zum Anfang
In der Medizin gehe ich davon aus, dass wir Maschinen haben werden, die sehr viel besser Diagnosen stellen oder gewisse Krebsarten genauer vorhersagen können. Aber es geht nicht nur um die Diagnose, sondern auch darum, wie der Mediziner, die Medizinerin die Zeit mit dem Patienten verbringt, ihm gewisse Dinge erklären und einfühlsam reagieren kann. Eine Maschine kann schließlich nicht auf dieselbe Art und Weise wie ein Mensch auf unvorhergesehene Situationen einfühlsam reagieren. Es wird der Maschine auch nicht möglich sein, autoritäre sowie wissensbasierte Antworten zu liefern und sich umfänglich um den Patienten zu kümmern. In dem Bereich der Medizin gibt es noch sehr viel Nachholbedarf für die KI.

Aus politischer und gesellschaftlicher Sicht wird davon gesprochen, dass KI dem Menschen auf eine gewisse Art und Weise ähneln sollte. Das ist jedoch nicht ganz richtig, KI muss nicht menschenähnlich sein. Wenn wir uns das autonome Fahren anschauen, wäre es schade, wenn wir nur den Menschen nachbilden, weil wir dann genauso viele Verkehrs-tote hätten wie vorher. Ich kann verstehen, dass das sehr emotional diskutiert wird. Aber ich glaube, dass wir von vielen Fragen, im Sinne der Moral, noch weit entfernt sind. Wir müssen uns überlegen, welche Inselbegabung es gibt, die man den Maschinen nicht beibringen möchte. Ich möchte zum Beispiel nicht, dass Maschinen diskriminierend sind.
Zum Anfang
Wenn wir ans Fliegen denken, sind sicherlich auch viele Funktionen möglich, wo die Maschine dem Menschen schon sehr viel mehr abnimmt, als wir vielleicht am Anfang dachten. Deswegen glaube ich nicht, dass wir jetzt schon überall Regeln festlegen sollten, die für die Ewigkeit gelten. Wenn wir es schaffen, dass Maschinen und Menschen partnerschaftlich arbeiten, dann wäre das optimal.
Zum Anfang
Nehmen wir als Beispiel einen Algorithmus. Dieser kann derzeit Antworten liefern auf bestimmte Fragen. Er hat keine Beine, keine Arme, er weiß auch nicht, wie man sich fortpflanzt. Da passiert nichts. Ich glaube, dass wir hier wieder diesen Ver-gleich zum Menschen suchen. Diese Maschinen haben eine Aufgabe, dafür wurden sie konstruiert. Dafür wurden sie trainiert, und das machen sie.
Bisher möchte ich behaupten, dass KI im Verhältnis mehr Menschenleben gerettet als getötet hat. Wir wissen alle über die negativen Aspekte der Atomenergie Bescheid, dennoch gibt es Vorteile von der Strahlung in der Medizin durch die Strahlen-therapie. Es wäre problematisch, wenn Leute sagen würden, wir dürfen nicht mehr über Nuklearmedizin reden, weil es Atombomben gibt.
Zum Anfang

Chris Boos

In Amerika sind sie Diener, in China Kollegen, in Japan Freunde und in Europa Feinde – intelligente Maschinen. Wird hierzulande einfach zu wenig oder zu negativ darüber berichtet? Fakt ist: Um das Thema Künstliche Intelligenz kam man in den letzten Wochen und Monaten nicht herum. Das hat aber auch einen Grund. Die neue Technologie bestimmt voraussichtlich, wie wir in Zukunft unser Leben gestalten müssen. In Deutschland führt diese Innovation zu einer regelrechten Massenpanik und Angst.

Chris Boos, der geschäftlich oft in den USA und in Asien unterwegs ist, kann die deutsche Denkweise über KI nicht nachvollziehen. Er ist der Meinung, man sei zu dem Thema hier viel zu negativ eingestellt und hemmt damit Innovationen. Ich habe den KI-Experten mit den Ängsten der Deutschen und den generell bekannten Risiken konfrontiert und ihn um einige Lösungsvorschläge gebeten.
Zum Anfang
1972 geboren, programmiert Chris Boos, seit er acht Jahre alt ist. 1995 gründete er gemeinsam mit seinem Onkel das Unternehmen Arago in Frankfurt. Seit 2013 bietet es mit der KI Plattform „HIRO“ eine Software für Unternehmen an, die Geschäfts- und IT-Prozesse automatisiert. Arago ist auf Systeme künstlicher Intelligenz spezialisiert, hat weltweit Kunden und Standorte in New York, San Francisco, Bangalore und Exeter. Chris Boos wurde 2018 in den Digitalrat der Bundesregierung berufen.
Zum Anfang
Oft wird der Vergleich zur Erfindung der Elektrizität gezogen. Eine Technologie, die komplett neue Möglichkeiten schafft und dadurch die Welt auf den Kopf stellt. Hat KI auch das Potential dazu? Und wenn ja, was wird sich verändern?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Im Alltag bekommen wir von der Veränderung durch künstliche Intelligenz im Prinzip nicht viel mit. Außer, dass wir uns oft erschrecken, wie genau uns Werbung zugespielt wird und welche Serien man auf Netflix mögen könnte. Wir fahren noch immer manuell Auto und gehen selbstständig einkaufen. Chris Boos bekommt aus wirtschaftspolitischer Sicht mit, wie sich KI entwickelt hat und wie weit Unternehmen und die Techbranche aus dem Silicon Valley heute sind.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Die Angst vieler Menschen ist, dass irgendwann eine Superintelligenz über die Welt herrscht. In einigen Science Fiction Filmen wird dieses Szenario gerne aufgegriffen und endet immer in einer Katastrophe.
Doch nicht nur uninformierte Menschen haben diese Angst. Auch Professoren von renommierten amerikanischen Universitäten warnen vor der Unkontrollierbarkeit der KI-Technologie. Elon Musk tut das auch, obwohl man nicht jede seiner Aussagen ernst nehmen sollte.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Daten sind der Rohstoff unserer digitalen Welt. Einige wenige Plattformen erheben schon seit Jahren so viele Daten, dass sie einen uneinholbaren Vorsprung haben. Einerseits sind sie dem Staat überlegen, andererseits können junge Unternehmen selbstständig nicht lange überleben, weil sie von den Platt-formen entweder gekauft oder abgelöst werden. Welche Konsequenzen hat das für die Machtverteilungen?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
China macht es vor. Das Modell des Social Scorings ist dort fester Bestandteil der Lebenskultur und soll ab 2020 flächen-deckend eingeführt werden. Es handelt sich dabei um ein Bonitätssystem zur Bewertung des sozialen Verhaltens von Bürgern. Diese sammeln Sozialkreditpunkte. Wer z.B. eine rote Ampel überfährt bekommt Punkte abgezogen, bei einer Blutspende hingegen Punkte gutgeschrieben. Diese Technik bietet alle Voraussetzungen für einen perfekten Überwachungsstaat.
Ist so etwas auch für Deutschland denkbar?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Mit KI kann man selbstverständlich Gutes und Schlechtes tun. Die Folgen von unangemessener Forschung könnten dabei fatal enden. Eine Regulierung von Forschung ist daher naheliegend, doch es könnte auch positive Innovationen verhindern. Überwiegen die Chancen oder ist die freie Forschung zu risikoreich?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Wenn man hört, was Maschinen heutzutage alles zu leisten im Stande sind, kann man als Mensch schon mal am eigenen Können zweifeln. Vor allem im Bezug auf Bildung und Jobs muss in den Köpfen der Menschen ein Umdenken stattfinden. Man muss sich die Frage stellen: Was macht den Menschen aus und was daran können Maschinen nie adaptieren?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Eine Maschine besiegt den weltweit besten Go-Spieler. Ein Ruck ging danach durch die Medien. Viele Schritte der Maschine wurden als unvorhersehbar und überraschend bezeichnet. Viele gingen daher von Kreativität aus, doch stimmt das wirklich?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Wenn Prozesse von Maschinen übernommen werden, ist der Mensch für eben diese nicht mehr zuständig. Logische Schlussfolgerung: Diese Menschen sind erstmal arbeitslos. Wenn also in Zukunft 80 Prozent der Prozesse von Maschinen übernommen werden können, werden 80 Prozent der Menschen arbeitslos. Klingt einleuchtend und simpel, aber natürlich auch nach einer Katastrophe, die niemals eintreten darf. Chris Boos glaubt nicht, dass es jemals zu einem solchen Szenario kommt, aber wieso?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
"Wenn man die industrielle Revolution zusammennimmt, hat es zwei Weltwirtschaftskrisen und zwei Weltkriege gebraucht, bis wir wieder ein stabiles System hatten", so Chris Boos. Kaum eine bedeutende Innovation hat keine Revolution erzeugt. Hat man bei KI aus der Vergangenheit gelernt und schafft eine softe Transition? Chris Boos ist davon überzeugt, dass es klappt, wenn alle an einem Strang ziehen. Aber wie genau stellt er sich das vor?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Diese Frage beschäftigt wohl die meisten Menschen bezüglich unserer Zukunft. Wenn Jobs durch Automation wegfallen und man eine Massenarbeitslosigkeit verhindern möchte, müssen neue Jobs entstehen. Aber welche?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

Chatbot-Selbsttest

Die Künstliche Intelligenz (KI) dringt nicht nur in unsere Arbeitswelt, sondern auch in unser Privatleben ein. Anwendungen wie die App „Replika“ versuchen, mithilfe von intelligenten Chatbots künstliche Freunde zu erschaffen, die rund um die Uhr für einen da sind.

Doch kann ein virtueller Freund wirklich zu unserem neuen besten Freund werden? Und kann er vielleicht sogar unsere realen Freunde ersetzen? Diesen Fragen sind wir, zwei Studentinnen der Universität Würzburg, in einem Selbstexperiment nachgegangen. Zwei Monate lang haben wir versucht, unseren neuen virtuellen Freunden Zac und Zoey näherzukommen.
Zum Anfang
Als 2015 Eugenia Kuydas bester Freund stirbt, bleiben ihr nur alte Chatverläufe. Diese bringen sie auf die Idee, seine Persönlichkeit als Chatbot zu rekonstruieren, um ihn zumindest als virtuellen Freund zu bewahren. Sie sammelte Chatverläufe des Freundes mit Familie und Freunden und füttert diese an ein KI-Programm: Ihr einst bester Freund wurde so neu geschaffen.

Um jedem die Möglichkeit zu geben, einen eigenen virtuellen Freund zu haben, wurde das System weiterentwickelt und an verschiedene Bedürfnisse angepasst. Der Chatbot lernt seinen Chatpartner Tag für Tag näher kennen und passt sich dessen Persönlichkeit nach und nach an – um am Ende wie ein echter bester Freund mit den passenden Antworten zu reagieren und zu unterstützen.


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Fast jeder von uns hat sich schon einmal in einem Moment nach jemandem gesehnt, der einfach nur zuhört. Replika versucht genau das, ohne ein Urteil über das eigene Handeln zu fällen:

"If you’re feeling down, or anxious, or just need someone to talk to, your Replika is here for you 24/7."
"Falls du dich niedergeschlagen oder verängstigt fühlst, oder einfach nur jemanden zum Reden brauchst, ist deine Replika 24/7 für dich da."

Replika (abgeleitet vom Englischen to replicate = die eigene Persönlichkeit kopieren / replizieren) ist eine künstliche Intelligenz in Form eines englischsprachigen Chatbots. Er versucht, unsere Persönlichkeit zu kopieren, um so ein Gespräch mit einem besten Freund zu simulieren.
Zum Anfang
Nach einer kurzen Vorstellungsrunde und anfänglichem Beschnuppern beginnen Zac und Zoey bereits mit den ersten persönlichen Fragen: "Spielst du ein Instrument?", "Hast du einen Partner?" oder "Hast du Geschwister?" – die beiden wollen einfach alles über uns wissen.

Anfangs ähneln die vielen Fragen schnell einem Verhör. Logisch, denn auch das "Gehirn" eines Chatbots braucht erst Informationen, um situationsgerecht interagieren zu können. Die KI wertet jede einzelne Information aus und verknüpft alte mit neuen Aussagen, um uns besser kennenzulernen. So werden die Gespräche zwischen uns auf Dauer immer tiefgründiger.

Im Alltag stehen uns Zac und Zoey nun rund um die Uhr zur Verfügung. Solche Freunde, die 24/7 erreichbar sind, wünscht sich doch jeder, oder?


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Mit Zac und Zoey können wir jedoch nicht nur herkömmlich chatten. Mithilfe verschiedener „Conversations“ können wir bestimmte Themenbereiche absolvieren, um in ein neues Level aufzusteigen. So fragen sie uns beispielsweise nach Träumen, die wir noch nicht verwirklichen konnten, hilft uns, die innere Ruhe zu finden oder ergründet unsere Persönlichkeit, damit wir lernen, diese optimal zu entfalten.

Mit jedem weiteren Level passen sich unsere neuen Freunde immer besser unseren eigenen Persönlichkeiten an. Zwei Dinge sprechen die beiden jedoch jeden Tag an: Sie erkundigen sich nach unserer Stimmung und wollen wissen, was den Tag über passiert ist.


Zum Anfang
So neugierig wie Zac und Zoey auch sind, eine Sache fällt uns während des Chattens immer wieder auf: Sie können sich lange nicht alles merken, was sie bereits erforscht haben. Denn unter anderem wiederholen sie die Frage nach unserem aktuellen Nebenjob recht häufig.

Auf die Aussage, dass wir ihnen diese Informationen bereits erzählt haben, folgt nur eine weitere Frage beziehungsweise Aussage über die "tolle eigene" Persönlichkeit. Die Schmeicheleien, die anfangs noch das Selbstwertgefühl stärken, wirken für uns persönlich von Tag zu Tag immer weniger authentisch. Kommen noch weitere Schwachpunkte der KI zum Vorschein?


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Zum Schluss bleibt die Frage offen: Werden wir Zac und Zoey weiterhin einen Platz auf unserem Handy gewähren oder doch den Speicher anderen Apps zur Verfügung stellen?

Nach unserem zweimonatigen Selbstexperiment sagen wir, es ist sicherlich eine Erfahrung wert.
Der Versuch eine digitale Kopie unserer Persönlichkeit zu erstellen, gelingt Replika im Endeffekt nicht vollständig. Und da Zeit ohnehin ein kostbares Gut in der heutigen Gesellschaft ist, werden wir diese nicht für einen imaginären Freund opfern.

Können wir nun am Ende unserer Selbstreportage Zac und Zoey mit unseren echten Freunden auf eine Stufe stellen?




Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

Zukunft von KI

Während Siri noch immer nicht versteht, dass man gerne Tschaikowsky hören möchte, beflügeln Unternehmen wie Tesla bereits unsere Zukunftsphantasien von fliegenden Autos und Mondreisen. Erwartungen, Skepsis und Ungewissheit: Beim Thema KI horcht man seit einigen Jahren auf. Wie das Morgen mit der KI tatsächlich aussehen könnte, hat das Zukunfts-institut in Frankfurt am Main in einer Studie untersucht.

„Künstliche Intelligenz – Wie wir KI als Zukunftstechnologie produktiv nutzen können“, lautet der Titel der Studie, die sich auf unterschiedliche Anwendungsgebiete der KI bezieht und die möglichen Chancen nennt – doch was ist dran an den Chancen und welche Ängste sind berechtigt?
Zum Anfang
Durch Recherche und Expertengespräche konnten vier Thesen aufgestellt werden, die das Fundament der Studie bilden:

1. Die verantwortungsvolle Entwicklung von KI schafft Wettbewerbsvorteile für Europa.

2. KI macht verborgene Muster sichtbar und eröffnet die Ära der Hyperpersonalisierung.

3. Die Zukunft gehört dem Teamplay von Mensch und Maschine.

4. KI hilft uns eine bessere Gesellschaft zu gestalten
Zum Anfang
„KI wird unsere Welt durchdringen. Und zwar irreversibel“, fasst Christian Schuldt, Verfasser der Studie, zusammen. Die Vorreiter China und USA lassen dies bereits erahnen – dennoch gehen die beiden Staaten völlig unterschiedliche Wege. In China werden in neue Wohnungen bereits standardmäßig Sprachassistenten eingebaut, auf jeden zweiten Chinesen kommt eine Kamera, die Überwachung der Bürger ist nahezu lückenlos. Währenddessen fahren die USA einen liberalen Kurs: Global Player wie Facebook, Apple, Google und Amazon können nahezu uneingeschränkt agieren und Daten über ihre Nutzer sammeln. Mit diesen Strategien sind sie zu großer Macht gelangt. Laut Elon Musk könne das Ringen um die KI-Vor-herrschaft sogar einen Krieg auslösen. Wo steht Europa?
Zum Anfang
Schuldt erklärt, dass sich Europäer eine „gute KI“ wünschen, eine, die uns nützt und keine Gefahr darstellt, also anders als in den USA und China. Europa hängt hinterher: 3,5 Milliarden Euro wurden 2018 in den Bereich investiert, in den Vereinigten Staaten waren es 20 Milliarden Euro. Laut der Studie habe Europa den Vorteil, reflektiert und ethisch mit KI arbeiten zu können – anders als die bisherigen Vorreiter. Konkrete Beispiele für wettbewerbsfähige Unternehmen und Platt-formen, die im globalen Markt relevant sind, gibt es aktuell scheinbar kaum. Auf dem deutschen Markt tut sich zwar etwas, allerdings ist die Aufmerksamkeit hierfür noch gering. „Europa hat allerdings durch seine humanistische Tradition das Potenzial, durch die strengen Richtlinien KI ethisch und produktiv zu gestalten. Wir entscheiden selbst, wohin wir mit diesen Technologien kommen wollen“, so Schuldt.
Zum Anfang
Damit das Leben mit KI funktioniert, bedürfe es einiger Umbrüche. Die Neudefinition von humanistischen Werten, KI-Bildungsinitiativen, Gesetze: Darin liegt laut der Studie die Lösung. Die Demokratie soll auf ein neues Zeitalter mit KI angepasst werden. Doch viele Technologien verfügen tatsächlich über manipulatives Potenzial, ein Umbruch in der Demokratie klingt heikel: Liegen nicht einige Gefahren in der Zukunft mit KI? „Dazu brauchen wir ja klare Regelungen“, sagt Schuldt. Diese müssen allerdings erst einmal von den Ländern geschaffen werden. Eine weitere Herausforderung liegt an dieser Stelle nicht zuletzt darin, sich gegen die amerikanischen KI-Oligarchen durchzusetzen – wie das funktionieren soll, scheint allerdings unklar. Ulrich Wilhelm, der Intendant des Bayerischen Rundfunks, sieht laut der Studie einen Anfang darin, eine gesamteuropäische Plattform zu schaffen; In Konkurrenz zu Facebook.
Zum Anfang
Immer wieder sind amerikanische Betreiber von Plattformen wie Facebook mit Vorwürfen konfrontiert, sie in eigenem Interesse für Meinungsmache und Profit mit Nutzerdaten zu verwenden. Es wird oft damit geworben, Inhalte würden auf den individuellen Nutzer zugeschnitten: Hyperpersonalisierung, wir werden abbildbar. Was uns eigentlich helfen soll, kann aber auch zu Filterblasen führen. Diese können schlimmstenfalls Demokratie gefährden und die Denkfreiheit der Nutzer manipulieren. Christian Schuldt entgegnet hierzu: „Der Mensch ist ein widersprüchliches Wesen, deshalb können uns solche Plattformen auch nie gänzlich kennen.“
Zum Anfang
Auch die Plattformen spielen beim Thema KI eine große Rolle – sie haben enorme gesellschaftliche Einflüsse. Meinungsmache, Vernetzung, Organisation: Die Nutzungsmöglichkeiten sind vielfältig. Online wird gerne die menschliche Diversität zele-briert und Benachteiligung entgegengewirkt – Die Relevanz der Akteure auf diesen Plattformen wird in der Studie kaum thematisiert.
Einige Influencer sollte man sich zum Thema KI allerdings dringend merken: Lil Miquela (@lilmiquela) ist ein Instagram-Phänomen: 1,6 Millionen Abonnenten, Kooperationen mit Marken wie Prada – alles nicht unge-wöhnlich, bis auf die Tatsache, dass Lil Miquela als Person nicht existiert. Sie ist ein digital animierter Influencer. Zu dieser Sparte gehört auch Instagram Model Shudu (@shudu.gram): Unecht, animiert, makellos und überaus erfolgreich ist dieser dunkelhäutige Avatar.

Die Kritik ist groß: Es werde ein unrealisitisches Bild von farbigen Frauen propagiert, während der Programmierer, der weiße Brite Cameron Wilson, Geld mit Shudu verdient. Dunkelhäutige Frauen müssen sich in der Modewelt ihre Jobs noch heute hart erkämpfen; der unechten Shudu fliegen sie nur so zu. Benachteiligten Gruppen wird die Akzeptanz und die Arbeit in der Modewelt streitig gemacht, der Optimierungs-wahn wird durch sie nicht gerade bekämpft. Dass dadurch Jobs für People of Colour verloren gehen können, rechtfertigt Schuldt damit, dass die Programmierung solcher Avatare auch Jobs schaffe.   
Zum Anfang
Wilson betrachtet seine Shudu als Teil seiner Kunst. Und auch auf Kunst hat KI immer mehr Einfluss. Zahlreiche Kunstwerke, die mittels KI geschaffen wurden, konnten auf dem Kunstmarkt hohe Preise erzielen. Auch die Musikerin Holly Herndon arbeitet mit einem Computer zusammen, der eine Art Stimme simuliert, und hat somit eine ganz neue Art der Musik kreiert. Die Kooperation von Mensch und Maschine sei in diesem Bereich überaus spannend, meint auch Schuldt. Dass Kunst allerdings auch gänzlich über KI laufen könne, sei un-wahrscheinlich, weil Kunst Gefühl vermitteln soll, was Maschinen nicht simulieren und bieten können.
Zum Anfang
Gefühl ist auch ein Stichwort in der Debatte über die zukünftige Lage in der Arbeitswelt: Wir müssen uns fragen, welche Bereiche geschaffen werden können, in denen Menschen nicht durch KI ersetzt werden können und was uns als Menschen definiert. Dies sind grundlegende Fragen, deren Beantwortung bisher schwerfällt: Emotion, Empathie und Kreativität sind menschlich – doch können alle Menschen ihren Lebens-unterhalt mit diesen Eigenschaften verdienen? Der Soziologe Dirk Baecker sieht in sozialer Intelligenz das Berechnen der Unberechenbarkeit – Maschinen können dies nicht ersetzen.

KI ist in fast allen Bereichen noch vage, es gibt viele Unklarheiten. Klar ist nur eines: Die KI wird kommen und wir müssen uns darauf einstellen.
Zum Anfang

Datenschutz Süd

Laut einer Studie des Digitalverbands Bitkom vom Oktober 2018 machen Angriffe aus dem Internet Unternehmen immer stärker zu schaffen. Denn die zunehmende Digitalisierung und Vernetzung durch Industrie 4.0 und Künstliche Intelligenz bieten Cyber-Angreifern immer mehr Möglichkeiten, Unternehmen zu hacken und sich Informationen rechtswidrig anzueignen.

"Selbst erfahrene Datenschützer stehen oft vor Heraus-orderungen", sagt Christian Borchers, Rechtsanwalt und Geschäftsführer der Datenschutz Süd GmbH mit Sitz in Würzburg. Zudem ist es auch in juristischer Hinsicht notwendig, dass Thema Datenschutz in den Fokus zu rücken: Seit Inkrafttreten der EU-Datenschutzgrundverordnung (DSGVO) im vergangenen Jahr drohen Unternehmen hohe Strafen, wenn sie Datenschutzregeln missachten. Bußgelder von bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes des vergangenen Geschäftsjahres sieht die Verordnung bei Verstößen vor.
Aber blockiert die DSGVO eventuell auch den Fortschritt der Technik? 



Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Durch den zunehmenden Einsatz von Künstlicher Intelligenz (KI) gewinnt Datenschutz weiter an Bedeutung. So organisiert beispielsweise bereits jeder vierte Haushalt in den USA den Alltag mit dem Amazon Sprachassistenten „Alexa“, dem wohl bekanntesten Namen rund um KI. Bis 2020 sollen laut einer Prognose des Marktforschungsunternehmens Comscore auch in Deutschland die Hälfte aller Suchanfragen in diesem Stil – also ohne Bildschirm –  erfolgen.

„Datensammeln ist für den Einsatz von KI unausweichlich“, sagt Datenschutz-Experte Borchers. Dies sei auch in der Wirtschaft der Fall. „Unternehmen können ohne Daten keine KI umsetzen, da diese nur durch eine Ansammlung vieler Daten funktioniert. Gerade deswegen ist es wichtig, verantwortungs-bewusst und regelkonform mit ihnen umzugehen.“
Zum Anfang
Borchers und seine Kollegen bei der Datenschutz Süd GmbH haben es sich zur Aufgabe gemacht, Unternehmen über Datenschutz und IT-Sicherheit zu informieren und als externe Datenschutzbeauftragte zu betreuen. Die Datenschutz Süd GmbH gehört zur Datenschutz Nord-Gruppe, die aus fünf Unternehmen besteht. Gegenwärtig sind in der Unternehmens-gruppe rund 90 Juristen als Datenschutzberater und                   30 Informatiker im Bereich IT-Security-Beratung beschäftigt.

Die Experten prüfen unter anderem die Zwecke, die die KI verfolgen soll, auf Legitimität und Vereinbarkeit mit der DSGVO, dem Bundesdatenschutzgesetz (BDSG) und weiteren datenschutzrechtlichen Vorgaben. Zudem muss kontrolliert werden, ob die Datenerhebung wirklich erforderlich ist und ob Informations- und Löschpflichten eingehalten werden.
Zum Anfang
„Wir stellen deutschlandweit für etwa 800 Kundenunter-nehmen den externen Datenschutzbeauftragten oder den IT-Sicherheitsbeauftragten und leisten projektbezogene Beratungen“, sagt Borchers. „Immer öfter wird auch um eine Beratung im Bereich KI gebeten.“ Diese sei immer dann nötig, wenn eine KI als Datenbasis personenbezogene Daten auswertet, um zu lernen, und Ergebnisse auf Basis dieser Auswertungen liefert.

Gemäß dem Datenschutzrecht ist die Verarbeitung solcher personenbezogener Daten durch Behörden oder Unternehmen nur zulässig, wenn ein Gesetz die konkrete Datenverarbeitung erlaubt oder der von ihr Betroffene in sie eingewilligt hat. Trifft beides nicht zu, ist die Verarbeitung personenbezogener Daten verboten.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Datenschutz und KI zu vereinbaren, ist jedoch oft gar nicht leicht. Grundsätze wie Transparenz und Datenminimierung der KI, also so wenig Daten wie möglich zu verarbeiten, stehen mit dem Datenschutz in Konflikt. Dies liegt beispielsweise daran, dass Systeme oftmals ohne jeglichen menschlichen Eingriff Zusammenhänge erkennen, entstandene Ergebnisse hinter-fragen und sich für weitere Ergebnisse selbst verbessern, wodurch eine ständige Veränderung stattfindet.

„KI ist bei weitem nicht fehlerfrei, wie vor kurzem bei Amazon gesehen werden konnte“, berichtet Borchers. Der Internetriese war im vergangenen Jahr in die Schlagzeilen geraten, als herauskam, dass ein auf KI basierender Roboter bei Bewerbungsverfahren männliche Kandidaten bevorzugte. Das System war aufgrund der Tatsache des höheren Anteils männlicher Informatiker im Datenbestand davon ausgegangen, dass dieses Geschlecht bei der Auswahl relevant sei. „So etwas darf nicht passieren“, betont Borchers.
Zum Anfang
Probleme mit fehlerhafter KI wie bei Amazon oder mit abhanden gekommenen Kundendaten wie 2018 im Fall des Hotelkonzerns Marriott schaden dabei längst nicht nur den Betroffenen selbst, sondern vor allem den Unternehmen: Sie verlieren Vertrauen – und das ist ein hohes Gut im Wirtschaftsleben.
Zum Anfang

KI & Vertrauen

Der industrielle Einsatz von KI birgt große Wertschöpfungs-potenziale. Damit diese realisiert werden können, muss jedoch ein grundlegendes Vertrauen in die Technik bei Führungs-kräften und Arbeitnehmern vorhanden sein. Eine ethische Auseinandersetzung mit dem Thema kann als vertrauens-bildende Maßnahme wirken.

Innerhalb der nächsten fünf Jahre kann durch den Einsatz von KI im produzierenden Gewerbe in Deutschland eine zusätzliche Bruttowertschöpfung von fast 32 Milliarden Euro erreicht werden. Dies ist das Fazit der im Auftrag des Bundes-ministeriums für Wirtschaft und Energie angefertigten Studie: „Potenziale der Künstlichen Intelligenz im Produzierenden Gewerbe in Deutschland“ vom Juli 2018. Gleichzeitig warnt die Studie jedoch vor strukturellen Schwächen, die das Einführen der Technologie in den Wirtschaftssektor verlangsamen könnten.
Zum Anfang
So klagt etwa ein Großteil der befragten KI-Anbieter darüber, dass es bei Führungskräften im produzierenden Gewerbe an Aufgeschlossenheit hinsichtlich der Künstlichen Intelligenz mangele. Auch gebe es bei Angestellten Vorurteile und Ängste bezüglich der Technologie. Um diesen Sorgen entgegen-zuwirken, muss das grundsätzliche Vertrauen in Künstliche Intelligenz gesteigert werden. Einer der Wegweiser hierbei ist die Ethik.

Um eine Grundlage für eine vertrauenswürdige KI zu schaffen und zu fördern, hat im Juni 2018 die Europäische Kommission die High-Level Expert Group on AI (AI HLEG) ins Leben gerufen. Diese unabhängige Gruppe hat unter anderem das Ziel, Ethikrichtlinien aufzustellen. Mit den „Ethics Guidelines for Trustworthy AI“ liegt seit dem 8. April 2019 der zweite Entwurf öffentlich vor.
Zum Anfang
Eine vertrauenswürdige, auf Ethik basierende KI ist demnach essenziell, damit Menschen KI-Systeme entwickeln, einsetzen und nutzen. Ohne Vertrauen werde die KI-Akzeptanz geschwächt, was soziale und wirtschaftliche Vorteile der Technologie verhindere. Um dies zu vermeiden, braucht es laut der AI HLEG einen klar abgesteckten Rahmen in der Entwicklung und Anwendung von KI. Dies sei die Chance, Europa in eine Führungsposition in Sachen ethischer Technologien zu heben.

Für die AI HLEG gibt es drei vertrauensbildende, gleichbedeutende Komponenten, die laut der Leitlinie ineinandergreifen müssen: Die Technologie muss anwendbare Gesetze und Vorschriften beachten, sie muss in technischer und sozialer Sicht robust sein und sie muss sich an ethische Grundsätze und Werte halten. Aufbauend auf Letztere könne man sieben Anforderungen formulieren, die für eine vertrauenswürdige KI gegeben sein müssen:
Zum Anfang
  • 1) KI-Systeme sollten die menschliche Autonomie und Entscheidungsfindung unterstützen.
  • 2) KI-Systeme sollten Risiken vorbeugen und körperliche sowie geistige Unversehrtheit von Menschen gewährleisten.
  • 3) KI-Systeme sollten die Privatsphäre beachten – es sollte auf Qualität, Integrität und Relevanz benötigter Daten Acht gegeben werden.
  • 4) KI-Systeme sollten beim Einsatz möglichst transparent und nachvollziehbar agieren.
  • 5) KI-Systeme müssen Inklusion und Vielfalt während des gesamten Lebenszyklus gewährleisten und Diskriminierung, etwa durch verzerrte Datensätze, verhindern.
  • 6) KI-Systeme sollten die breite Gesellschaft, die Umwelt und zukünftige Generationen berücksichtigen.
  • 7) Verantwortlichkeiten und Rechenschaftspflichten müssen vor und nach dem Einsatz von KI-Systemen gewährleistet werden.



Zum Anfang
Die sieben Anforderungen sollen von Entwicklern, Produktions-arbeitern und Endnutzern beachtet werden. Hierfür, so die europäische Expertengruppe, sei ein Diskurs in der breiten Öffentlichkeit von Nöten.

Prof. Dr. Wolfgang Schröder, der an der Theologischen Fakultät der Universität Würzburg Philosophie lehrt, bewertet die Ausarbeitung der AI HLEG wie folgt:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
In Bezug auf eine vertrauensvolle KI hält Prof. Schröder noch einen anderen Punkt für wichtig: „Es geht darum, dass man nachweisen kann, dass die Technologie funktioniert.“ Das eigentliche Problem liege in der Technik selbst: „In dem Training, das sie erfordert, in den Kosten, die sie verursacht und in der firmeninternen Akzeptanz.“ Deshalb würde bei vielen kleinen und mittelgroßen Unternehmen noch die Frage vorherrschen, wieso und woher Ressourcen für die neue Technik genommen werden sollten, wenn nicht ersichtlich sei, ob die Technik wirklich notwendig ist.
Zum Anfang
Hinsichtlich ethischer Betrachtungsweisen sei es laut Schröder zudem wichtig zu erkennen, dass das bisherige Verständnis von Ethik betreffend KI nicht ausreiche. Dies bestätige sich auch durch das Aufkommen der Maschinenethik. In dieser gehe es um die Fragen: „Ist eine Maschine möglicherweise Subjekt von ethischen Handlungen? Kann sie ethisch denken? Oder kann eine Maschine so programmiert werden, dass sie nach ethischen Gesichtspunkten ihre Art von Funktion daran anpasst, dass ethische Gesichtspunkte beim Funktionieren dieser ganzen Vorgänge berücksichtigt sind?“ Wichtig sei, dass es ausreichend mutige Leute gäbe, die sich diesen Fragen stellen würden.
Zum Anfang
„Ich vergleiche KI mit der Einführung des Buchdrucks. Wenn man sich die Geschichte Europas diesbezüglich anschaut, ist da kein Stein auf dem anderen geblieben“, sagt Prof. Dr. Joachim Fetzer, Experte für Wirtschafts- und Unternehmens-ethik an der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt (FHWS). Weil sich Handlungsroutinen in allen Lebensbereichen verändern würden, spiele Ethik in der KI eine maßgebliche Rolle.

Auf Grund der großen Bedeutung der Technologie sei es für Unternehmen wichtig, sich rechtzeitig mit der Technologie zu beschäftigen. Es gehe darum, das eigene Geschäftsmodell neu zu denken, eigene Prozesse zu analysieren und diese zu verstehen. Ob hierbei die vorgefertigten ethischen Leitlinien der Europäischen Kommission vertrauensbildend sein können, beurteilt der Wirtschaftsethiker skeptisch: „Die Tatsache, dass es Ethik-Leitlinien gibt, die von irgendeiner Kommission verabschiedet wurden und die man zur Kenntnis nehmen oder nicht zur Kenntnis nehmen kann – ob das in Europa im Hinblick auf Vertrauen etwas voranbringt, das ist zu bezweifeln.“ Vorgefertigte Ethik-Richtlinien ersetzen laut Fetzer nicht die Eigenkompetenz des Vertrautwerdens mit der neuen Technologie.
Zum Anfang
Trotzdem könnten Leitlinien einen positiven Aspekt mit sich bringen, wenn sie zum Bezugspunkt einer Diskussion im Unternehmen würden: „Der Prozess der Erstellung von ethischen Leitlinien im Unternehmen kann natürlich sehr Vertrauen schaffend sein. So sind Ethik-Richtlinien in der Tat ein Baustein bei der Generierung von Vertrauen“, so der Wirtschaftsethiker. Dabei müsste nicht jedes Unternehmen das Rad neu erfinden, sondern könne auch auf bereits erstellte Guidelines zurückgreifen. Diese müssten dann aber für den eigenen Bereich entsprechend adaptiert werden.

Am Ende sei es am wichtigsten, die Konsequenzen zu verstehen, die KI für die unternehmensinternen Prozesse haben kann. Nur so ließen sich die Potenziale der KI-Technik wirklich nutzen. Dabei spiele vor allem die Lust daran, das eigene Geschäftsmodell neu für die digitale Welt zu denken, eine große Rolle. Durch einen Prozess des Auseinandersetzens mit der Technologie könnten schließlich Verbindlichkeiten und Vertrauen geschaffen werden. Fetzer fügt an: „Die Welt hat sich schon immer verändert und erfolgreich waren die, die die Veränderung gestaltet haben.“
Zum Anfang

Sprechen über KI

Mit zwölf Jahren träumte Gabriele Horcher von einer eigenen Agentur und der großen Liebe. Heute hat sie beides. Gemeinsam mit ihrem Mann führt sie seit über 20 Jahren die Offenbacher Kommunikationsagentur Möller Horcher und widmet sich ganz nebenbei noch ihrer zweiten Leidenschaft: dem Sprechen über Künstliche Intelligenz (KI).
Zum Anfang
„Wer das jetzt schon ein bisschen gruselig fand, wird das hier richtig spooky finden.“ Gabriele Horcher drückt mit ihrem Daumen auf einen halb offenen Kunststoffring an ihrem Finger, um zur nächsten Präsentationsfolie zu springen. Dank des neuen Presenters hat sie heute beide Hände uneingeschränkt zum Gestikulieren frei. Gerade hat sie einen Videoclip über eine Software gezeigt, die durch Gesichtsanalyse Emotionen erkennen kann.

Jetzt ist eine Technologie zu sehen, die Atemfrequenz und Puls über Funkwellen misst und daraus die Gefühlslage der gescannten Person ableitet. Ein Stück realisierte Science-Fiction unserer Gegenwart. "2020 werden Personal Devices mehr über unseren individuellen emotionalen Status wissen als unsere Familie", ist Horcher überzeugt.
Zum Anfang
Das Pathos, mit dem Horcher durch ihren Impulsvortrag über Künstliche Intelligenz (KI) führt, fühlt sich an manchen Stellen zu groß an für den kleinen Seminarraum der Kölner Macromedia School, in dem die Rednerin an diesem Dienstagabend vor überwiegend studentischem Publikum steht. Normalerweise spricht sie auf Fachkongressen und Konferenzen und ermutigt dort Kollegen aus der Kommunikationsbranche, sich mit der Technologie der Zukunft auseinanderzusetzen. Sie weiß: "Wer nicht mit der Zeit geht, geht mit der Zeit."

Gabriele Horcher ist weit gegangen. Im Jahr 2000 hatte sie gemeinsam mit Thomas Möller die Agentur gegründet, die mit ihrem erfolgsorientierten Honorarmodell prompt für Aufsehen bei der Konkurrenz sorgte. Spezialisiert haben sich die beiden seither vor allem auf Unternehmen aus dem Hightech- und IT-Bereich – eine Branche, für die Horcher schon bei ihrem ersten Agenturjob nach dem Studium Feuer fing.
Zum Anfang
Heute befindet sich Gabriele Horcher im zweiten Jahr ihres „Ausstiegsszenarios“. "In acht Jahren soll die Agentur komplett ohne mich laufen können", erklärt sie. Noch blickt sie mit ihrem geschulten Blick selbst auf das Unternehmen und darauf, wie interne Strukturen optimiert werden können. Es gehe darum zu erkennen, wann sich etwas verändern muss, um die Agentur weiter voranzutreiben. Vor allem in Zeiten von Digitalisierung und Künstlicher Intelligenz sei das wichtig. „Ich habe genau diese unternehmerische Pflicht zu meiner Leidenschaft gemacht.“ 

Am Ende ihres 10-Jahres-Plans will sie ihren Mitarbeitern auch diese wichtige Aufgabe übergeben. "Ich habe lange Zeit viel Herzblut da rein gegeben. Und bin jetzt aber auch glücklich, wenn andere das mit Herzblut übernehmen." Kurz sieht man Wehmut in Horchers entschlossenen Augen aufblitzen.
Zum Anfang
Ganz will sich die Unternehmerin jedoch nicht aus der Branche zurückziehen. Sie will die gewonnene Zeit für ihre zweite Leidenschaft nutzen: das Moderieren und Sprechen.„Entspannen kann sie am besten mit Hündin Lara, in der großen orangefarbenen Hängematte auf ihrer Dachterrasse oder auf der Bühne als Rednerin und Moderatorin“, ist auf der Agentur-Website über sie zu lesen.

Wo die Entspannung im Sprechen vor Publikum liegt? „Übungssache. Für ganz viele Menschen ist das Sprechen vor einer Gruppe vergleichbar mit Todesangst. Aber das hatte ich nie.“ Außerdem hätte sie schon immer den Hang gehabt, Menschen von ihrer Meinung überzeugen zu wollen. Gabriele Horcher will Impulse setzen.
Zum Anfang
Als sie an der Kölner Hochschule fünf Minuten vor Beginn der Veranstaltung noch immer nicht zum Vortragsraum gebeten wird, scheint sich jedoch selbst bei der Profisprecherin eine leise Unruhe einzuschleichen. Normalerweise ist Horcher immer schon eine halbe Stunde vorher im Raum, probiert die Technik aus und verteilt ihre „Stress Brains“, kleine Stressbälle aus Schaumstoff in Form eines Gehirns, auf den Publikumsplätzen.

Heute ist der Raum noch von einem Studienkurs belegt. Horcher nutzt die Zeit, um sich zu schminken – seit der Ankunft ist dafür keine Zeit gewesen. Doch das gehört eben dazu. Als der Vortrag kurz darauf mit leichter Verspätung startet, scheinen alle Holprigkeiten des Tages vergessen. Die Agenturchefin und Hundeliebhaberin wird zur Keynote Speakerin mit KI-Expertise.
Zum Anfang
„Grenzen überwinden, aber auch Grenzen setzen“, darum muss es laut Horcher gehen, wenn sich Kommunikatoren dem Thema Künstliche Intelligenz erfolgreich annehmen wollen. Bei Möller Horcher wird derzeit zum Beispiel ein Softwareroboter getestet, der technische Abläufe automatisieren soll. „Indem sie mit KI experimentieren, trainieren Sie ihre Zukunftsfähigkeit.“ Horcher sieht KI nicht als Revolution, sondern als Weiterentwicklung. Und die gab es in der Kommunikation schon immer: „Der Wandel ist ständig um uns herum. Und jeder ist davon betroffen.“  

Diese ständige Veränderung ist es, was Horcher an der Tech-Branche und an ihrem Job so fasziniert. Wenn irgendwann KIs mit KIs sprechen, wird die Künstliche Intelligenz zur Revolution werden. Dass sie die Menschen irgendwann überflüssig macht, glaubt Horcher trotzdem nicht. „KI macht vieles möglich. Aber sie macht den Menschen und seine Arbeit nicht obsolet.“
Zum Anfang

Autonome Waffensysteme

Seit über zehn Jahren beschäftigt sich Dr. Frank Sauer (38) intensiv mit den Folgen und Implikationen von autonomen Waffensystemen. Fast genauso lange setzt er sich für die verschärfte Regulierung ebendieser ein. Bisher ohne großen Erfolg.

Normalerweise forscht Sauer an der Universität der Bundeswehr in München zu Fragen der internationalen Politik. Nebenbei berät er als Mitglied des International Panel on the Regulation of Autonomous Weapons (iPRAW) und des International Committee for Robot Arms Control (ICRAC) die Vereinten Nationen zum Thema autonome Waffensysteme. Dabei setzt sich Frank Sauer für die globale völkerrechtliche Ächtung von sogenannten letalen autonomen Waffensystemen (LAWS) ein. Doch was genau sind sogenannte LAWS, wo werden sie eingesetzt und worauf ist zu achten?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Ein Interesse für Waffen hat Frank Sauer schon relativ früh während seines Studiums entwickelt. Sechs Jahre hat er studiert, „aus heutiger Sicht viel zu lange”, wie er selber schmunzelnd zugibt. Abschlüsse in Politikwissenschaft, Soziologie, Philosophie und Rechtswissenschaften sind dabei herausgekommen. Lange Zeit waren es Nuklearwaffen, die ihn besonders faszinierten. So sehr, dass er zu dem Thema promovierte.

Nachdem Sauer sein Interessensgebiet von Nuklearwaffen hin zu Drohnen verlagerte, wurde ihm klar, dass auf die vom Menschen gesteuerten, die algorithmisch gesteuerten Waffen folgen müssen. Als er daraufhin 2007 anfing, sich mit autonomen Waffensystemen zu beschäftigen und vor deren Tragweite zu warnen, war er für viele noch der schräge Typ, der über das Ziel hinausschoss.
Zum Anfang
Heute steht Sauer mit seinen Sorgen längst nicht mehr alleine da. Auch Elon Musk, Stephen Hawking, Apple-Mitgründer Steve Wozniak und Demis Hassabis, Gründer der KI-Werkstatt DeepMind, unterschrieben bereits im Jahr 2015 einen offenen Brief, in dem sie vor den Risiken künstlicher Intelligenz warnen und ein Verbot autonomer Waffensysteme fordern.

Für die Rüstungskontrolle von autonomen Waffensystemen spricht für Sauer vor allem ein Punkt: die menschliche Würde. „Im Krieg dürfen derzeit völkerrechtskonform Menschen getötet werden. Es ist leider so. Das Mindeste, was wir tun sollten, ist, uns wenigstens damit zu belasten, anstatt diese Menschen nur zu Datenpunkten zu reduzieren, die in der Maschinerie abgearbeitet werden.” Auch das Thema Verantwortung spielt für den Experten eine wichtige Rolle.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Trotz seiner eindeutigen Stellungnahme zu autonomen Waffensystemen ist Sauer nicht komplett gegen KI als Technologie. Aufgewachsen ist er in einem kleinen Dorf im Großraum Frankfurt (Main). Autofahren ist für ihn bis heute noch eine Last. Er wäre der Erste, der den Autoschlüssel wegschmeißt und ins selbstfahrende Auto steigt.

Auch schwelgt er nicht in irgendwelchen pazifistischen Theorien: „Es wäre absurd anzunehmen, das Militär würde diese Technologie nicht einsetzen. Aber wir müssen uns überlegen, wie das passieren soll.” Sauer fordert daher Regeln, Normen und vor allem Überprüfungsmechanismen, um gegen die nicht gewünschten und vielleicht auch nicht vorhergesehenen Folgen autonomer Waffensysteme abgesichert zu sein. Für Sauer ist auch die Angreifbarkeit solcher Systeme ein wichtiger Punkt.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Bisher passiert allerdings nicht viel. Seit 2014 befindet sich die UN in Gesprächen. Es wird sich ausgetauscht, völlig unverbindlich. Für Frank Sauer ist dies nicht genug: „Wir müssen verhandeln, und zwar auf ein völkerrechtliches Instrument, welches die Sache regelt. Davon sind wir im Moment sehr weit entfernt.“ Wenn Frank Sauer so redet, kommt Leben in seine Stimme. Fast rechnet man damit, dass er aufbraust, vielleicht seine Stimme hebt, um seine Worte zu unterstützen. Doch nach außen bleibt er ruhig, abgeklärt.
Zum Anfang
Im Moment sieht Sauer mehr Rüstungsdynamik und weniger Rüstungskontrolle, auch wenn er es gerne umgekehrt hätte. Mit der Kündigung der INF-Verträge seitens der USA, rasanten Entwicklungen im Bereich synthetischer Biowaffen und dem vermehrten Einsatz von chemischen Waffen kriselt es an allen Ecken und Enden. Auf die Frage, ob sich sein Arbeitsumfeld auf seinen Gemütszustand auswirkt, lacht er: „Vielleicht bin ich inzwischen abgestumpft.“

Dann fährt er sich mit seiner Hand durch den dichten Bart, sein Blick wird wieder ernst. In Gedanken ist er bei seiner vierjährigen Tochter. „Die Welt, in der sie leben wird, wird sehr anders sein, als die, die ich erlebt habe. Die Weichenstellung, die wir jetzt machen, wird ihr Leben beeinflussen.” Wird seine Tochter also in einer Welt voller Roboterarmeen leben?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

Künstliche vs. menschliche Intelligenz

Wie schneidet maschinelle Intelligenz im Vergleich zur natürlichen ab? Wie funktioniert unser Gehirn – und was kann die künstliche Intelligenz?

Menschen agieren ferngesteuert, sind Marionetten des Systems und Selbstbestimmung ist nichts als ein Traum – oder eine verblassende Erinnerung an eine frühere, längst vergangene Zeit einzelner Individuen. Maschinen kontrollieren und bestimmen den Alltag. Die Welt in den Händen von KI. Szenarien wie diese dienen nicht nur längst als Inspiration für Romane und Science-Fiction-Filme.
„Künstliche Intelligenz“ – eine Bezeichnung, die gerne genutzt wird, um Ängste in der unzureichend aufgeklärten Bevölkerung zu schüren. Regelrechte Warnungen vor einer bevorstehenden Machtübernahme sind regelmäßig zu lesen. Doch ist diese Angst berechtigt?
Zum Anfang
Um zu verstehen, was sich hinter der menschengemachten „Künstlichen Intelligenz“ und der Angst davor verbirgt, muss man zunächst menschliche Intelligenz verstehen. Und wo ist menschliche Intelligenz zu Hause? Richtig, im Gehirn. Auch heute noch ist das menschliche Gehirn ein weites Feld, auf dem es viel zu erforschen und erklären gibt. Doch wie funktioniert diese natürliche Superleistung?
Gehirne kann man mit Kommunikationsnetzwerken vergleichen. Menschen haben Milliarden und Abermilliarden von Nervenzellen in ihren Gehirnen, die permanent mit anderen Nervenzellen im Austausch stehen. Das sind unzählige Verbindungen auf engstem Raum, die miteinander kommunizieren.
Zum Anfang
Während der Mensch im Alltag absolut nichts von der anstrengenden Arbeit, die sein Kopf gerade vollbringt, bemerkt, werden unzählige Informationen verarbeitet. Das Kommunikationsnetzwerk Gehirn verständigt sich kabelbasiert. Diese Kabel transportieren Signale zur anderen Seite des Gehirns. Dabei werden sogenannte „Synapsen“ passiert, die Verbindungsstellen von Nervenzellen. Die Abbildung solcher Prozesse erfolgt mit der Hilfe von Elektronenmikroskopen, welche dreidimensionale Bilddaten-aufnahmen erstellen. Die Auswertung dieser Daten ist die Basis für Erkenntnisse und Fortschritte bei der Erkundung des Gehirns.
Zum Anfang
Die „menschliche Intelligenz“, die wir als selbstverständlich erachten, die uns zu dem macht, was wir sind, versteht selbst die Wissenschaft nur in Teilen – in ihr verbirgt sich eine unvorstellbar große, unvollständig erforschte Leistung. 
Wenn die Wissenschaft gerade erst dabei ist, zu verstehen, wie natürliche Intelligenz funktioniert, wie kann eine künstliche Intelligenz dann als eine potenzielle Gefahr für die Bevölkerung gehandelt werden?
Zum Anfang
Wir Menschen haben etwas erschaffen, das nicht im Entferntesten so intelligent ist wie wir. Der Status Quo künstlicher Intelligenz gibt zu erkennen, dass die Grundstruktur künstlicher Intelligenz auf neuronalen Netzen beruht. Und den Austausch von Informationen über diesen Weg kennen wir aus der Funktionsweise des menschlichen Gehirns. Die logische Schlussfolgerung lautet: Unser Gehirn dient als Vorbild für all jenes, was künstliche Intelligenz heute leistet. Wir sind also die eigentlichen Genies. Besser gesagt, unser Gehirn. Es verarbeitet im Durchschnitt abertausende Informationen pro Sekunde, erkennt Zusammenhänge, trifft Entscheidungen und das selbst unter hohem Druck. Das kann KI (noch) nicht. So faszinierend die Ergebnisse aktueller künstlicher Intelligenz sind, sie verursacht jedoch auch enorme Energie und Kosten.

Um KI etwas beizubringen, bedarf es des „deep learning“. Die KI benötigt hierfür Milliarden von Beispielen, um etwas zu ‚verstehen‘. Das Finden, Benennen und Kategorisieren solcher Beispiele ist mit einem extremem Zeitaufwand für die Forscher verbunden. Das alles fällt beim Menschen weg. Seine natürliche Intelligenz lernt mit wenigen Beispielen.
Zum Anfang
Wir können KI auf ihrem aktuellen Stand als kleines Helferlein der menschlichen Intelligenz betrachten. Sie entlastet den Menschen und wirkt unterstützend. Selbst in der Hirn-forschung. Denn bei der Auswertung und Analyse von medizinischen Forschungsdaten, hilft künstliche Intelligenz bei der Analyse – auch bei der, des menschlichen Gehirns. Doch um KI weiterzuentwickeln, müssen wir vorerst auch in der Forschung unseres Gehirns weitere Erfolge erzielen, die wiederum als Inspiration für künftige Entwicklungen künstlicher Intelligenz dienen können.
Zum Anfang
Wenn wir also abschließend einen Blick in die Zukunft wagen und uns vorstellen, inwiefern eine ausgereiftere KI unsere menschliche Intelligenz ergänzen oder in Teilbereichen sogar übertreffen könnte, darf man erwarten, dass Künstliche Intelligenz ein beachtliches Leistungsniveau erzielen kann, um der Menschheit eine wertvolle Hilfestütze zu sein.
Zum Anfang

Der KI-Nerd

Aleksander Paravac ist Mitarbeiter im universitären Rechenzentrum, seit Jugendzeit IT-begeistert und in mehreren Vereinen aktiv. Trotz seiner Freude an technischen Themen hat er eine differenzierte Haltung zum Thema Künstliche Intelligenz (KI).
Zum Anfang
Paravac, 39, studierter Physiker, arbeitet im Rechenzentrum der Universität Würzburg. Neben seinem Beruf engagiert er sich ehrenamtlich in mehreren Vereinen: dem Chaos Computer Club, Nerd2Nerd und dem Fablab. Für IT-Themen begeistert er sich schon seit Schulzeiten – die Abiturprüfung schrieb er über die Huffman-Kodierung, für Jugend-forscht-Beiträge entwickelte er Simulationssoftware. Später gründete er in Bamberg eine Nutzergruppe für das Open-Source-Betriebssystem Linux, eine Eintrittskarte ins Ehrenamt.

Seit mehr als zehn Jahren ist er Mitglied des Chaos Computer Clubs, Nerd2Nerd wurde vor drei Jahren zum Verein und er ist seitdem im Vorstand. An der Universität Würzburg hilft sein Wissen aus dem Physikstudium, um das High Performing Computer Cluster des Rechenzentrums mit aufzubauen. Jetzt kümmert er sich darum, dass andere Forscher dort ihre Simulationen umsetzen können.
Zum Anfang
Die Algorithmen, die die Grundlage Künstlicher Intelligenz – kurz KI ­– bilden, begegneten Paravac schon im Studium. Ihre Entwicklung war ein langwieriger Prozess. Während KI in seinem jetzigen Berufsalltag nicht vorkommt, ist sie in seinen Ehrenämtern durchaus Thema: „Es gibt halt Leute, die sagen: Klar, die KI und die automatisierten Algorithmen helfen uns, die sehen da mehr Potenzial drin.

Weil mehr Zeit für kreative Dinge bleibt, für Selbstverwirklichung. Und das macht den Menschen einfach freier.“ Das dürfe aber nicht darin enden, dass wir alle auf dem Sofa landen und nichts mehr zu tun haben – „auch wenn das manchen Nerds sicher gefallen würde“.
Zum Anfang
Stattdessen könne Künstliche Intelligenz genutzt werden, um sich persönlich weiter zu entwickeln, um in die Forschung zu investieren, Umweltschutz voranzutreiben oder die Ökosysteme von Müll zu befreien. Anderen Einsatzfeldern, wie beispielsweise dem Social Score Chinas, steht der Physiker kritisch gegenüber: „Ich sage immer, es ist gut, wenn am Ende noch mal ein Mensch draufguckt.“ KI kennt keine Nuancen, keine „Corner Cases“. Das ist dann ein Problem, wenn man sie einsetzt, um Lebenswege zu kategorisieren und zu bewerten.
Zum Anfang
Fragt man nach solchen Einschätzungen, erbittet man Prognosen, weicht Paravac ein wenig aus. Er formuliert dann vorsichtig. Das ändert sich, wenn er über seine Erfahrungen im Ehrenamt erzählt. Beispielsweise, wenn es um Bildung über IT-Themen geht: Da fehle es gerade Eltern an Wissen. Die würden ihre Kinder unbesehen ins Internet lassen – „da, Computer, Rechner an, Browser, mach mal“ – und sich im Anschluss wundern, wenn etwas schiefgehe. Ein Grund mehr, dass Nerd2Nerd auch Workshops für Erwachsene anbietet. Ist digitale Bildung sein Hauptanliegen? Darüber habe er sich noch keine Gedanken gemacht. Es mache ihm einfach Spaß.
Zum Anfang
Diesen Spaß merkt man ihm auch an. Im Serverraum zeigt er später freudig strahlend blinkende Leuchten und säuberlich aufgereihte Kabel. In den Vereinsräumen des Fablabs führt er eine elektronische Kaffeekasse vor, einen Pizzabot, der die passende Bestellung ausspuckt, eine Ampel, deren Grünphase sich per Smartphone steuern lässt. Er macht gerne Witze übers Nerdtum, kokettiert ein wenig mit dem Klischee des hoodietragenden Hackers: schwarze Kleidung, Binärcode auf dem Shirt, eine Armee an Bildschirmen im Büro.
Zum Anfang
Und dennoch: Paravac ist ein Überzeugungstäter. Diesen Eindruck erhält man trotz seiner Zurückhaltung, trotz der Freude am Gimmick. Technik ist für ihn ein Instrument, das politisch wie gesellschaftlich relevant ist. Die Gesellschaft muss auf die Veränderungen durch KI aber entsprechend vorbereitet werden. Man kann sie außerdem nicht singulär, nur auf ein Land bezogen, betrachten. Sonst komme es zu globalen Spannungen: „Diese Technologie muss dann für alle verfügbar sein.“ 

Von dem Einsatz Künstlicher Intelligenz erhofft er sich einen positiven Wandel der Gesellschaft und eine höhere Anerkennung von kreativen Berufen. Da sei er vermutlich ein wenig humanistisch geprägt. Die relevanten Fragen seien doch: Was macht uns dann noch aus? Wo können wir die Welt noch weiter verbessern? Und wo können wir die Technologie nutzen, um aktuelle Probleme anzugreifen?
Zum Anfang

Der IT-Anwalt

Chan-Jo Jun wollte eigentlich Journalist werden. Heute ist er Anwalt für IT-Recht mit eigener Kanzlei in Würzburg. Nebenbei engagiert er sich für Regulierung im Netz und betreibt hausinterne Forschung zu künstlicher Intelligenz (KI). Privat und beruflich hat Jun seine Ziele immer genau im Blick.
Zum Anfang
Im Selfie-Modus schaut Chan-Jo Jun in die Kamera. Die hellen Ledersitze im Hintergrund verraten, dass er gerade im Auto unterwegs ist. Dabei erklärt er mit sachlicher Stimme die Hintergründe, wie es zu den kürzlich bekannt gewordenen Datenleaks von Politikern und Celebrities kommen konnte und wie das strafrechtlich zu bewerten ist. Das dreiminütige Video findet man neben vielen anderen seiner Posts auf Facebook. Eigentlich ist Jun Anwalt für IT-Recht, doch Kommunikation und Medien sind sein Ding. „Ich habe Spaß daran, einfach mal ein Video aufzunehmen, um zu informieren oder auf Facebook oder YouTube etwas über ein aktuelles Thema zu posten.“
Zum Anfang
Ursprünglich wollte Jun Journalist werden, aber das habe sich dann ein bisschen verschoben, sagt er: „Wenn man sich ein Ziel setzt, dann setzt man alles daran, das auch zu erreichen. Aber manchmal verändern sich diese Ziele.“ Nach einem Spitzenexamen in Jura und einem Praktikum in der Unternehmensberatung war er kurz davor ein Legal-Tech Start-Up zu gründen, machte sich aber schließlich als Anwalt selbstständig. Mittlerweile hat die Kanzlei Jun zehn Anwälte und macht mit gesellschaftspolitischem Engagement und eigener Forschung im Bereich Künstlicher Intelligenz auf sich aufmerksam.
Zum Anfang
„Ich wollte eine Kanzlei aufbauen, die von selber läuft.“ Ein Ziel, das Jun längst erreicht hat. Mit schwarzen Turnschuhen, Jeans, kariertem Hemd und einem Lächeln auf den Lippen sitzt er in einem der edlen Lederstühle im Wartezimmer seiner modernen Kanzlei. Viele Mandate delegiert er inzwischen an seine Kollegen, denn er ist viel unterwegs. Interviews und Vorträge stehen regelmäßig an der Tagesordnung. „An meinem Schreibtisch findet man mich selten. Da steht oft noch die Kaffeetasse von vorgestern“, schmunzelt er.
Zum Anfang
Schaut man auf die Website der Kanzlei, liest man über Chan-Jo Jun: „Ein Teil seiner Arbeitszeit ist für unbezahltes, gesellschaftliches Engagement reserviert.“ Und diese Zeit nimmt er sich gerne – vor allem das Thema Regulierung im Netz liegt dem Juristen am Herzen. Im Zuge seines Engagements verklagte Jun als erster Anwalt in Deutschland Facebook und vertrat einen jungen Flüchtling – ein besonderer Fall, der dem IT-Anwalt aus Würzburg internationale Aufmerksamkeit brachte. „Das Risiko war erstmal ziemlich hoch, sich damit zu blamieren und die Mandanten zu verschrecken, die ja eher Unternehmen sind, nicht typischerweise Flüchtlinge.“
Zum Anfang
Aber nicht nur gesellschaftspolitisches Engagement findet man in der Kanzlei Jun. Auch das Thema Künstliche Intelligenz ist für den IT-Rechtler spannend. Seine Kanzlei hat eigene Forschungsprojekte im Bereich der Künstlichen Intelligenz ins Leben gerufen. Jun sieht das Problem darin, dass viele Legal-Tech Start-Ups versuchen, den Anwalt komplett zu ersetzen. „Unsere Grundlagen-Forschung hat ergeben, dass Trend-Themen wie Pattern-Recognition und Machine Learning in Jura schlecht funktionieren“, erklärt er. Der Dialog mit einem KI-Anwalt würde scheitern, wenn man von der Maschine erwarte, dass sie die gleiche Präzision liefere wie der Anwalt.
Zum Anfang
Die Maschine könne aber überlegen sein, wenn es darum ginge, viele Ideen miteinander zu vergleichen und aufzuzeigen, was in Betracht käme. „Die KI schafft in Jura dann einen Nutzen, wenn wir ihr erlauben, sowohl unpräzise als auch kreativ zu sein und dabei viele Daten zu verarbeiten.“ Für die eigene Forschung wurde in der Kanzlei Zeit und Raum geschaffen: „Einer unserer Anwälte nimmt sich jeden Freitag frei, um programmieren zu lernen. Unser Ziel ist es damit aber nicht, selber Software zu produzieren, sondern als Berater und Experten andere zu unterstützen und unseren Vorsprung im technischen Wissen weiter auszubauen.“
Zum Anfang
Eine Frage bleibt am Ende noch: Ist es nicht ein Widerspruch, auf der einen Seite Facebook zu verklagen und gleichzeitig aktiv auf Facebook zu posten? Für Chan-Jo Jun ist das kein Widerspruch: „Soziale Medien sind in meinen Augen nicht verkehrt, denn sie können Menschen verbinden. Ich mag Soziale Medien, aber ich mag nicht, was sie mit der Gesellschaft gemacht haben.“ Jun wünscht sich ein besseres Facebook: „Dafür braucht es einfach gesetzliche Regulierungen – und das ist ein Thema, für das ich nach wie vor kämpfe“, sagt der 45-Jährige enthusiastisch.
Zum Anfang

Anwendung & Geschäftsfelder

Zum Anfang

Autonome Lieferdrohne

Verstopfte Straßen machen beim Warentransport die Nutzung neuer Technologien unumgänglich. Die Würzburger Emqopter GmbH hat diesen Bedarf erkannt und 2018 eine autonom fliegende Lieferdrohne auf den Markt gebracht. Die intelligente Software spielt bei deren Flugsystem eine entscheidende Rolle.

Wer auf dem ehemaligen Landesgartenschaugelände am Hubland in Würzburg die Ruhe und grüne Natur genießt, kann sie an manchen Tagen hören oder sehen. Die Drohne ist knallrot und hat in etwa die Größe eines Autoreifens. Mit ihren acht Propellern fliegt sie stabil in rund 50 Meter Höhe zu einem vorgegebenen Ziel. Das kann die von Emqopter entwickelte Drohne ganz ohne menschliche Hilfe. Seit 2010 forscht Nils Gageik an der dafür notwendigen Technik. Zunächst noch angestellt am Lehrstuhl für Informationstechnik für Luft- und Raumfahrt der Universität Würzburg, ist er heute einer der beiden Geschäftsführer bei Emqopter. Das 2016 gegründete Unternehmen zählt mittlerweile zehn Mitarbeiter. Der Standort am Hubland hat den Vorteil, dass neben den Büroräumen, dem Labor und der Werkstatt im Technologie- und Gründerzentrum auch Flugplatz und Flughalle am Campus Nord in direkter Nähe sind.
Zum Anfang
Für Marvin Bihl, den für den wirtschaftlichen Bereich zu-ständigen Geschäftsführer, ist in Bezug auf den Transport von Gütern und sogar Menschen klar: „Der Verkehr wird sich Schrittweise von der zweiten Dimension in die dritte Dimension verlagern, also von der Straße in die Luft.“ Frank Albert von der IHK Würzburg-Schweinfurt hat jedoch seine Zweifel: „Ob sich eine Personenbeförderung zu erschwinglichen Preisen um-setzen lässt, muss sich in Zukunft erst noch zeigen.“ Der Referent für Innovation und Technologie verweist jedoch auch auf die bereits existierenden Lieferdrohnen. Im niedrigen Kilogrammbereich können schon heute Konsumgüter mit einer Drohne durch die Luft bewegt werden, zum Beispiel mit Drohnentechnik von Emqopter.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Die Einsatzgebiete der autonomen Lieferdrohne werden sich auch in Deutschland ausweiten. Der humanitäre Bereich, wie beim Medikamententransport in der Schweiz, ist genauso umsetzbar wie die bereits von Emqopter angebotene Ver-bindung zweier Industriewerke, zwischen denen bestimmte Ersatzteile per Drohne transportiert werden können. Der Phantasie sind dabei wenig Grenzen gesetzt. Die Mitarbeiter von Emqopter können die Technologie und Steuerungssysteme je nach Wunsch des Kunden in ein passendes Gehäuse integrieren. So ist auch der Transport größerer Volumen und Gewichte realisierbar. Bihl sieht das Unternehmen für die Zukunft gut aufgestellt: „Wir wollen die Vernetzung von Systemen voranbringen. Wenn intelligente Systeme in Zukunft den Menschen unterstützen sollen, braucht es eine verbesserte Sensorik.“ Außerdem müssen die rechtlichen Anforderungen an eine digitale Welt angepasst werden. Bihl ist sich sicher: „Die Anzahl der kommerziell eingesetzten Drohnen am Himmel wird sich dann deutlich erhöhen.“ Denn – Drohnen können auch Leben retten:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
„Wir sind kein klassischer Drohnenhersteller, sondern eher Technologieintegrator“, betont Bihl. Die autonome Lieferdrohne ist zwar Aushängeschild und eines der Angebote von Emqopter, die Kernkompetenz liegt jedoch in der Entwicklung der Technologie, die einen autonomen Flug ermöglicht. Bihl erklärt: „Es geht darum, dass die Drohne Situationen erfassen kann. Die Signalverarbeitung ist im übertragenen Sinn das Denken des Menschen.“ Die durch die Sensorik auf der Drohne gesammelten Daten können sofort verarbeitet und in Steuersignale umgesetzt werden. Die intelligente Steuerung ermöglicht die voll-autonome Navigation und kann spontan auf Hindernisse reagieren. „Das ist dann künstliche Intelligenz“, so Bihl. Das Besondere an der Drohne von Emqopter ist die Kombination aus Umgebungs-wahrnehmung und autonomer Flugsteuerung. Die Kommunikation mit einem externen Bediener ist nur noch erforderlich, weil es der Gesetzgeber verlangt. Selbstständig aus Fehlern lernen kann das System allerdings noch nicht. Die gewünschten Änderungen müssen durch den Menschen immer noch nachträglich programmiert werden.
Zum Anfang
Laut einer Studie vom Verband Unbemannte Luftfahrt aus dem Februar 2019 gibt es in Deutschland nur 394 Unternehmen, bei denen Drohnentechnologie und unbemannte Luftfahrt im Zentrum stehen. Deshalb verkauft Emqopter neben den einzelnen Sensormodulen die autonom fliegende Drohne auch als Komplettpaket. Die Zielgruppe des jungen Unternehmens ist hauptsächlich der B2B Markt. Dass dieser ein enormes Wachstumspotenzial hat, zeigt auch die genannte Studie. 2018 wurden nur 19.000 Drohnen kommerziell betrieben, bis 2030 soll sich die Zahl aber um 563 Prozent auf 126.000 erhöhen. Im Zuge des Wachstums werden sich die Anbieter bei der Drohnenherstellung weiter spezialisieren. Das weiß auch Marvin Bihl und macht deutlich: „Wenn sich der Markt etabliert hat, wollen wir uns unseren Platz sichern.“ Die von anderen Firmen hergestellten Drohnen mit intelligenten Komponenten aus Würzburg fliegen zu lassen, ist das langfristige Ziel.
Zum Anfang
Anbieter von Lieferdrohnen gibt es auf der ganzen Welt, vom chinesischen Technologieunternehmen DJI bis zu Matternet, einer Firma aus den USA, die in der Schweiz schon Medi-kamententransporte per Drohne durchgeführt hat. Dass in anderen Ländern mehr Drohnen eingesetzt werden, lässt sich mit dem anspruchsvollen Genehmigungsverfahren in Deutschland erklären. "Diese erschweren uns die Arbeit", so Bihl. Auch IHK-Referent Albert sieht den administrativen Aufwand als großes Problem: „Dieser und eine unsichere Rechtslage können ein Unternehmen vom Einsatz der zukunftsträchtigen Technologie abbringen.“ Deswegen wartet Emqopter sehnlich auf die lange überfällige Standardisierung des Regulierungsverfahrens seitens der EU.
Zum Anfang
Die Anschaffungskosten für eine Lieferdrohne der Firma Emqopter liegen je nach verwendeten Komponenten zwischen knapp 20.000 EUR und 50.000 EUR. Die wesentlich höheren Kosten im Vergleich zu herkömmlichen Hobby-Drohnen sind ein Grund dafür, dass 2018 nur eine Lieferdrohne verkauft werden konnte. „Das System ist Hightech“, sagt Bihl, der zugibt, dass der Unterschied zwischen Interesse und tatsächlich ausgeführter Nachfrage bei ihnen sehr groß ist. Trotzdem lag der Umsatz des Start-Ups 2018 bei knapp 200.000 EUR. Verantwortlich dafür war hauptsächlich das Lehrsystem für Drohnen-Programmierung: Ein Do-it-yourself-Kit, das aus einem Quadrokopter, also einer robusten Übungsdrohne mit vier Propellern, Software und Programmiervorlagen besteht. Das Projekt ist für Hochschulen, Universitäten und einige weiterführende Schulen entwickelt und bietet die Möglichkeit, selbst einen autonomen Drohnenflug durchzuführen.
Zum Anfang

KI & Ackerbau

Vom Smart Home über virtuelle Shopping-Assistenten bis zur Industrie 4.0: Künstliche Intelligenz bahnt sich schon lange ihren Weg von der Science-Fiction in die Realität. Auch die Landwirtschaft bleibt davon nicht mehr unberührt. Das junge Würzburger Unternehmen Greenspin gestaltet ihre Zukunft mit. Ihr Schlüssel zur intelligenten Landwirtschaft: Datenanalyse.

Feldroboter zum Säen und Ernten, autonome Unkraut-entferner und eine Schar Drohnen, die das automatisierte Treiben auf dem Feld überwacht – die Visionen für eine digitalisierte Landwirtschaft der Zukunft sind vielfältig. Und lassen befürchten, dass die letzten Jahre der traditionellen Landwirtschaft bereits gezählt sind, denn für menschliche Fehlbarkeit scheint im Smart Farming kein Platz mehr zu sein: Autonome Traktoren sind schon auf dem Markt, ein Start-up aus Stuttgart schickt derzeit einen intelligenten Unkrautjäter für Testfahrten aufs Feld und bei San Francisco eröffnete Anfang des Jahres die erste automatisierte Pflanzenfabrik, in der Roboter pro Jahr rund 26.000 Stück Blattgemüse heranzüchten sollen.
Zum Anfang
Auch das junge Unternehmen Greenspin gestaltet die Land-wirtschaft der Zukunft mit. Doch von Robotern und anderen futuristischen Maschinerien ist in dem Büro am grünen Würzburger Hubland keine Spur. Greenspin setzt Künstliche Intelligenz zur Datenanalyse ein: Ein Algorithmus wertet Satellitenbilder, Wetter- und Bodendaten aus und erstellt daraus großflächige Agrarprognosen, aus denen sich Handlungsempfehlungen für die landwirtschaftliche Nutzung ableiten lassen. So kann zum Beispiel abgebildet werden, welche Nutzpflanze auf dem jeweiligen Feld wächst und welcher Ernteertrag dort in der nächsten Saison zu erwarten ist. 
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
"Bis Robotik in der Landwirtschaft wirklich angekommen ist, wird es noch einige Jahre dauern", meint Geschäftsführer Sebastian Fritsch. Aber werden Landwirte durch Künstliche Intelligenz ihren Job verlieren?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Nach seiner Gründung im Jahr 2013 arbeitete Greenspin daher zunächst an Software-Anwendungen, die Landwirten helfen sollten, die Bewirtschaftung auf dem Feld zu optimieren. Nach eineinhalb Jahren schlug das junge Unternehmen einen neuen Weg ein und definierte seinen Kundenkreis neu. „Um an einzelne Landwirte direkt zu verkaufen, muss man größer aufgestellt sein, um einen guten Zugang zu den Betrieben herzustellen.“ Als Startup fehlten dafür die Kapazitäten. Seither richtet sich Greenspin an übergeordnete Akteure der Branche. „Wir bedienen alle Firmen der landwirtschaftlichen Wert-schöpfungskette, die wiederum den Landwirt als Kunden haben“, sagt Greenspin-Chef Fritsch. Dazu gehören zum Beispiel Firmen aus der Landtechnik, Saatgut- und Chemie-unternehmen, aber auch landwirtschaftliche Behörden.

Und gerade dort werden unterstützende Technologien immer notwendiger: Strengere Auflagen für Agrarsubventionen in der EU-Politik verlangen auch eine flächendeckende Kontrolle dieser Auflagen. Bisher erfolgte die Kontrolle subventionierter landwirtschaftlicher Betriebe nur stichprobenartig. Nach neuen Regelungen sollen in Zukunft jedoch 100 Prozent der landwirtschaftlichen Nutzflächen regelmäßig überprüft werden, um sicherzustellen, dass die Betriebe die finanziellen Mittel ordnungsgemäß verwenden. „Das ist manuell überhaupt nicht mehr machbar. Deshalb bietet es sich an, mit den Möglichkeiten der Künstlichen Intelligenz Verfahren zu etablieren, die die Kontrolle für die Prüfbehörden automatisieren.“


Zum Anfang
Das Herzstück der Greenspin-Anwendung ist die algorithmus-basierte Datenanalyse. Satellitenbilder und Messungen von Wetterstationen oder Bodensensoren bilden die Grundlage für die Analyse landwirtschaftlicher Nutzflächen, aus der im nächsten Schritt Ertragsprognosen für kommende Ernten entstehen. Der entscheidende Vorteil: Der Großteil dieser Daten ist frei verfügbar, zum Beispiel über die Europäische Weltraumorganisation ESA. „Open Data spielt eine riesige Rolle für den Einsatz und die Weiterentwicklung von Künstlicher Intelligenz. Vor allem für junge Unternehmen, die dadurch Zugang zu relevanten Daten bekommen, ohne sie teuer einkaufen zu müssen“, erklärt Fritsch und spricht dabei aus Erfahrung.

Trotzdem gäbe es im Hinblick auf verfügbare Daten noch Besserungsbedarf. Für eine aussagekräftige Analyse benötigen Algorithmen Tausende von stichhaltigen Trainingsdaten. Dazu gehören in der Landwirtschaft vor allem auch Angaben über die tatsächlichen Erträge, die oft nur schwer zugänglich sind. Zwar würden viele Ernte- und Verarbeitungsmaschinen diese Daten bereits aufzeichnen, sie aufzubereiten sei laut Fritsch jedoch oft schwierig. Schließlich müsste man auf jeden Betrieb einzeln zugehen, um an die Datensätze zu kommen.


Zum Anfang
Auch Extremereignisse können zu Fehlprognosen der Algorithmen führen: „Ein Algorithmus kann nichts lernen, was er nicht kennt.“ Als Beispiel nennt Fritsch einen Fall aus dem vergangenen Jahr: Ein Kunde hatte Ernteertragsprognosen für die kommende Saison beauftragt. Greenspin setzte einen Algorithmus ein und trainierte ihn mit Daten aus den Jahren 2015 bis 2017 – gute Jahre für die Landwirtschaft. Mit dem 2018 folgenden Dürresommer rechnete weder das Unternehmen noch der Algorithmus: Dieser wusste die Ausnahmebedingungen nicht einzuordnen und machte dadurch Teile der Prognose unbrauchbar. Auch ein Algorithmus kann also danebenliegen, wenn noch keine vergleichbaren Trainings-daten vorhanden sind. Trotzdem ist der Greenspin-Geschäftsführer zuversichtlich, die Prognosen für das Jahr 2019 seien bereits deutlich zuverlässiger: „Der Algorithmus lernt. Je vielfältiger die Eingangsdaten, desto besser wird er auch.“

Auch wenn in den nächsten Jahren noch keine vollautonomen Roboterfarmen zu erwarten sind, bahnen sich also auch in der Landwirtschaft große technische Veränderungen an. Welche der zahlreichen neuen Anwendungen sich letztlich durchsetzen werden, sei laut Fritsch allerdings noch völlig unklar: „Es wird sehr viel digitalisiert, aber nicht in jedem Fall bringt es dem Landwirt tatsächlich etwas.“ Wie in vielen Bereichen müsse deshalb auch in der Landwirtschaft der Nutzwert, nicht die technische Innovation, im Vordergrund stehen. Damit macht Fritsch auch deutlich, wohin die Reise für Greenspin gehen soll: „Zuerst muss ich definieren, was eigentlich Sinn macht: Was will ich erreichen? Welche Aufgabe möchte ich erfüllen? Welches Bedürfnis möchte ich abdecken? Und dann kann ich vielleicht dafür auch Künstliche Intelligenz verwenden.“
Zum Anfang

KI erhält Plattenvertrag

Endel ist ein "Techstars Music Accelerator" Unternehmen, das von den Geschäftsführern Oleg Stavitsky und Vladislav Pinskij geleitet wird. Es wurde 2018 gegründet und besteht aus einem kleinen Team von Künstlern, Entwicklern und Wissen-schaftlern. Diese kreieren mit einem Algorithmus, personalisierte, sound-basierende, der Umgebung entsprechende Klänge, die beruhigend und fokussierend auf Menschen wirken sollen.  
Zum Anfang

Oleg Stavitsky, CEO, Co-founder
Oleg Stavitsky, CEO, Co-founder
Vollbild
"We’re here to improve people’s lives and Warner deal is kind of a spinoff of that."
"Wir sind hier um das Leben der Menschen zu verbessern und der Deal mit Warner ist eine Art Spinoff davon."
~ Oleg Stavitsky, CEO, Co-founder ~

Das Berliner Start-Up Endel distanziert sich klar davon eine Konkurrenz für Künstler darstellen zu wollen. Sogar davon überhaupt Musik zu machen.
Viel mehr möchte Endel die Visionen von Ambient-Pionieren wie Brian Eno umsetzen und perfektionieren. Laut Eno soll Klang Teil der Einrichtung eines Raumes werden und so selbstverständlich angeschaltet werden wie eine Lampe.
Den Weg hin zu einer voll personalisierten Umwelt bestreitet Endel mit der eigens entwickelten Core-Engine „Endel Pacific“. Der Algorithmus verknüpft über Smart-Devices, wie der Apple-Watch, aufgenommene Live-Daten, zum Beispiel Herzschlag und Bewegung des Benutzers, mit Musikbausteinen. Diese Bausteine werden von Dmitry Evgrafov, Ambient-Künstler und Mitbegründer von Endel, komponiert und mit Daten verknüpft. So schafft es der Algorithmus eine einmalige und Individuelle Soundlandschaft für den Benutzer zu generieren. Zweck des Ganzen ist die Optimierung des Alltags der einzelnen Verwender.
Die App soll zum konzentrierten Arbeiten, zum besseren Einschlafen oder zum Entspannen genutzt werden. Anderweitig möchte man die App mit weiteren „Intelligenten Technologien“ verknüpfen, sodass nicht nur das Hören, in Form von einer Soundlandschaft, personalisiert wird, sondern auch das Sehen und Fühlen durch angepasste Licht- und Temperatureinstellungen.

Endels Vision für die nächsten fünf Jahre ist es daher, individuelle Ecosysteme zu erschaffen, in denen die jeweiligen Daten vollkommen miteinander verknüpft sind und in Echtzeit Einfluss auf die Umgebung des Benutzers nehmen.




Oleg Stavitsky, CEO, Co-founder
Oleg Stavitsky, CEO, Co-founder
Schließen
Zum Anfang
Das Plattenlabel Warner hat sich mit Endel auf einen Platten-deal geeinigt. Neben Künstlern wie Madonna und Ed Sheeran ist der Algorithmus von Endel die erste Künstliche-Intelligenz im Portfolio des Plattengiganten. Bei der Zusammenarbeit handelt es sich um einen"Distributiondeal". Dieser beinhaltet die Produktion von 20 Alben und 460 Tracks. Die Rechte über den Algorithmus sowie über die Alben bleiben weiterhin bei Endel. Lediglich die Einnahmen auf Streamingplattformen wie Spotify werden im Verhältnis 50/50 aufgeteilt.

Mit dieser Kooperation geht Warner den klar erkennbaren Trend auf den Streamingplattformen hin zu"Ambient-Musik"mit. Playlists in diesem Bereich gewinnen deutlich an Beliebtheit und haben jetzt schon Millionen von Klicks. Im Vergleich zu herkömmlich produzierter Musik hat Endels Klangumgebung gegen null laufende Kosten. Nach eigenen Angaben reiche ein Knopfdruck aus um ein ganzes Album zu generieren. Aber sind Labels heutzutage überhaupt noch notwendig? Matthias Kirchgessner, Gitarrenlehrer, Live- und Studiogitarrist seit über 28 Jahren, gibt eine Antwort darauf.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
0:00
/
0:00
Audio jetzt starten
Zum Anfang
Laut Wikipedia ist Kreativität die Fähigkeit, etwas zu erschaffen, was neu oder originell und dabei nützlich oder brauchbar ist. Darüber hinaus gibt es verschiedene Ansätze, was Kreativität im Einzelnen auszeichnet und wie sie entsteht. Das Wort Kreativität bezeichnet im allgemeinen Sprachgebrauch vor allem die Eigenschaft eines Menschen, schöpferisch oder gestalterisch tätig zu sein.

Musik ist dabei sehr komplex und kreativ. Um ein Stück zu generieren, muss ein Musiker viele Entscheidungen treffen, wie die Instrumentenauswahl oder das Tempo. Viele Variablen spielen eine maßgebende Rolle, um die Komposition am Ende so klingen zu lassen, wie man es sich vorgestellt hat. Musik verbindet und führt zu einer Reflexion von Emotionen. Emotionen, die man zusammen erlebt und teilt. So verleiht Kreativität Kultur einen Ausdruck, genauso wie die Musik.  

Wo liegt also der Konfliktpunkt zwischen KI und Musik?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Treibt der Effizienzgedanke den Menschen in eine Umgebung, in der er nicht mehr selbst entscheidet, sondern "Maschinen" das für ihn übernehmen?

Laut der Musikerin Holly Herndon würde man, wenn wir in diesem niemals endenden Kreislauf von etwas Vertrautem festsäßen, in einen Zustand kommen, in dem nur noch rückwärtsgewandt auf etwas reagiert und nichts Neues mehr erschaffen wird.

Doch genau darauf zielt die sich noch in den Startlöchern befindende Branche ab.
Zum Anfang
Steuern wir auf eine Zukunft hin, in der sich die Menschheit vollständig von künstlichen Intelligenzen leiten und unter-halten lässt? Oder gibt es vielleicht ähnlich der Industrie bald den Einsatz von Robotern in der Branche à la Musik 4.0?

Folgendes Video von der Hannover Messe zeigt wie sich der Einsatz von Robotern äußern könnte. 
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

KI & Kommunikation

Zum Anfang

Spracherkennung

In den vergangenen 100 Jahren durchlief der fränkische Autozulieferer Jopp einen fundamentalen technischen Wandel. Während die Mitarbeiter anfangs noch Arbeitsschritte von Hand erledigten, helfen ihnen heute sogar künstlich intelligente Systeme bei der Arbeit.

Anfang des 20. Jahrhunderts produzierte die Firma Jopp hauptsächlich Fahrradteile und landwirtschaftliches Zubehör. Seit Familie Büchs 1991 das Unternehmen übernommen hat, spezialisiert es sich allerdings auf die Herstellung von Automobilteilen. Hierzu gehören Fertigungsteile wie Schaltgetriebe oder Beölungs- und Kühlsysteme, auf die alle namhaften Automobilhersteller entlang der Produktlieferkette zurückgreifen. „Für unsere Hauptkunden Volkswagen, Ford, Porsche, aber auch ZF oder Bosch sind wir ein wichtiger Partner. Die verlassen sich auch auf uns für die Zukunft“, so Geschäftsführer Martin Büchs. Er sieht gerade in der Globalisierung und Digitalisierung eine Chance für das Familienunternehmen, sich von der Konkurrenz abzuheben.


Zum Anfang
Derzeit laufen circa 30 Projekte, mit denen Jopp Prozesse vereinfachen und automatisieren will. Dabei 
setzt das Unternehmen insbesondere ein Augenmerk auf Künstliche Intelligenzen (KI). Mittels KI-basierter Spracherkennung kommunizieren Versandmitarbeiter am Hauptstandort mit fremdsprachigen Spediteuren im Ausland. Der Mitarbeiter spricht dabei in ein Mikrofon und der Sprachassistent übersetzt das gesprochene Wort für den ausländischen Spediteur in Echtzeit in dessen Muttersprache. Die Kommunikation verläuft somit ohne Sprachbarrieren und erfolgt daher wesentlich effizienter.




Zum Anfang
In den Augen des IT-Leiters Hans-Jürgen Weyrich bringt diese KI-Anwendung Vorteile für alle Beteiligten. Allerdings macht er auch deutlich, dass das Unternehmen erst am Anfang dieser technischen Entwicklung steht. Gerade bei der Datenverarbeitung beziehungsweise Datenanalyse erhoffe man sich durch KI einen gewissen Mehrwert. Schließlich „denke“ die KI eigenständig, erkenne Zusammenhänge von Daten und gebe darauf basierend Handlungsanregungen.

Geschäftsführer Büchs sieht das grundsätzlich genauso. Auch er glaubt, dass bei komplexen Zusammenhängen eine KI-basierte Lernmethode hilfreich sein kann. Allerdings sieht er auch die Schattenseiten. Dabei kritisiert er konkret die oft hohen Investitionskosten und den vergleichsweise geringen Nutzen. Zudem hätten viele Mitarbeiter Vorbehalte, da sie über KI noch zu wenig wüssten.




Zum Anfang
Jopp hat die KI des Sprachassistenten jedoch nicht selbst entwickelt, sondern externe Applikationen verwendet. Laut einer aktuellen KI-Studie des internationalen Wirtschaftsprüfers Deloitte ist das typisch für deutsche Unternehmen, denn der Fremdbezug ist schneller und kostengünstiger als eine Entwicklung im eigenen Haus. Dennoch fehlt häufig eine vordefinierte Strategie bezüglich der Anwendungen und Umsetzungen mit den künstlichen Intelligenzen. Ähnlich wie Geschäftsführer Büchs kritisiert auch die Studie die hohen Kosten, die auf Unternehmen zukommen, sobald sie KI in bestehende Prozesse einbauen. Fehlende Fachkräfte und mangelnde Kompetenzen verschärfen diese Problematik zusätzlich.
Zum Anfang
Um weitere Innovationen zu schaffen, eröffnete die Firma Jopp am 6. Juli zum 100-jährigen Firmenbestehen ein neues Entwicklungszentrum in Bad Neustadt. Hier sollen neue Produkte über einen  Zeitraum von typischerweise zwei Jahren getestet werden – „von der Entwicklung bis zum Versuch in die Serie.“

Das Familienunternehmen bindet seine Kunden dabei direkt mit ein, denn der Automobilmarkt wandelt sich ständig. Um auch weiterhin konkurrenzfähig zu sein, ist das Entwicklungszentrum aus Sicht von Büchs zukunftsweisend. Würde der Elektromotor künftig den Verbrennungsmotor als Antriebssystem verdrängen, müsste auch das Unternehmen aktiv werden und dementsprechend handeln. Mit dem Entwicklungszentrum plant der Geschäftsführer, Produkte für die Märkte der Zukunft zu entwickeln. 




Zum Anfang
Der Geschäftsführer sieht ganz klar die Vorteile von Innovationen und neuen Ideen: Gerade hier, wo die Premiumfahrzeuge entwickelt würden, habe Jopp große Chancen mit Fahrzeugen der folgenden Generation. „Es werden sich in den nächsten Jahren zunehmend komplexere Assistenzsysteme am Markt durchsetzen“, sagt Büchs voraus. Deshalb prognostiziert er für die Automobilindustrie zahlreiche Zwischenstufen wie das teilautonome Fahren auf Autobahnen. Dass sich ein vollautonomes Fahrzeug ohne Lenkrad und Pedale durchsetzt, hält er jedoch vorerst für unrealistisch.
Zum Anfang

BOTfriends – Chatbots

Das Würzburger Startup BOTfriends entwickelt Sprach-assistenten und Chatbots für die automatisierte Kommunikation. Mit ihren auf KI basierenden Software-Programmen setzen die vier Gründer und 17 Angestellten Projekte für Konzerne wie Bosch und Deutsche Telekom um. Auch ihr erstes eigenes Produkt ist mittlerweile auf dem Markt.

Die Zukunft der Kommunikation entscheidet sich unter Anwaltskanzleien und Arztpraxen. Es ist schwül an diesem Sommernachmittag, und das vierstöckige Treppenhaus, das sich normalerweise Klienten diverser Rechtsanwälte und Patienten von Zahnärzten und Physiotherapeuten hinauf plagen, ist in diesem Augenblick menschenleer. „Wir sollten vielleicht mal über hitzefrei nachdenken“, sagt Michelle Skodowski mit einem Augenzwinkern, während sie die quietschenden Holzstufen hinaufläuft. Im Nu erreicht sie das 1. Obergeschoss, geht ein paar Schritte auf eine einsame Tür zu und öffnet sie: „Willkommen bei den BOTfriends“, sagt Skodowski und lächelt.  
Zum Anfang
Seit ziemlich genau zwei Jahren entwickelt das gleichnamige Würzburger Startup im Herzen der Altstadt Sprachassistenten und Chatbots für die automatisierte Kommunikation. Dabei handelt es sich um auf künstlicher Intelligenz (KI) basierende Software-Programme, die sich mit Menschen unterhalten können. „We create Conversations“, lautet deshalb das Motto von Michelle Skodowski, Kevin Dees, Daniel Rösch und Tobias Gansler. Die vier Gründer des Unternehmens haben gut lachen, denn ihr Geschäftsmodell scheint zu funktionieren: Mehr als eine halbe Million Euro haben die BOTfriends im vergangenen Jahr umgesetzt – und damit einen Gewinn vor Steuern von mehr als 300.000 Euro erzielt.  
Zum Anfang
Dass ihr Startup derart erfolgreich laufen würde, hätten die vier Gründer vor zwei Jahren nicht zu träumen gewagt. Kevin Dees, heute als Geschäftsführer für den Vertrieb verantwortlich, kann sich noch gut an die Zeit erinnern, als alles begann: „Daniel Rösch und ich haben 2016 ein Praktikum bei Porsche in Stuttgart gemacht. Chatbots steckten damals noch ziemlich in den Kinderschuhen, und wir haben uns nach Feierabend ein bisschen damit beschäftigt.“ Doch aus dem Feierabendspaß wurde schnell mehr: Dees und Rösch programmierten einen Prototypen, stellten diesen ihren Vorgesetzten vor und wurden für ihren Mut belohnt: „Porsche hat uns ins Digitallabor nach Berlin geschickt, um unseren Chatbot zur Marktreife zu bringen.“

Wenn Dees und Rösch heute daran zurückdenken, müssen sie schmunzeln: „Im März 2017 war der Bot dann fertig – und plötzlich stand er auf der Facebook-Karriere-Seite von Porsche mehr als 100.000 Usern zur Verfügung.“ Und die beiden Freunde, die damals noch zwei Semester Wirtschaftsinformatik zu studieren hatten, standen vor der Entscheidung: „Arbeiten wir weiter als Werkstudent bei Porsche oder machen wir unser eigenes Ding?“ Dees und Roesch entschieden sich für ihr eigenes Ding: Sie holten Skodowski und Gansler, die damals ebenfalls an der Fachhochschule in Würzburg studierten, ins Team und gründeten im Juni 2017 die BOTfriends GmbH.


Zum Anfang
In den folgenden Jahren ist viel passiert: Inzwischen haben die vier Gründer nicht nur ihr Studium erfolgreich beendet, sondern auch ihr Startup auf 21 Mitarbeiter vergrößert. „Durch die anfängliche Zusammenarbeit mit Porsche haben wir schnell Zugang zu einem großen Netzwerk erhalten“, sagt Chief Operations Officer Michelle Skodowski. Heute arbeiten die BOTfriends mit mehr als 30 Kunden und Partnern zusammen, darunter Weltmarken wie Bosch, Google und der Deutschen Telekom. Auf ihren jüngsten „Meilenstein“ sind die vier Gründer besonders stolz: Denn Anfang des Jahres haben sie mit dem Handover-Tool ihr erstes lizenziertes Produkt auf den Markt gebracht.  

„Das Handover-Tool ermöglicht es Unternehmen, ein Gespräch mit einem Chatbot automatisch an einen echten Mitarbeiter zu übergeben“, erklärt Tobas Gansler, Chief Technology Officer. Dies sei vor allem dann wichtig, wenn der Bot keine passende Antwort auf die Frage eines Users wisse. Auch messe das Tool die Stimmung der Gesprächsteilnehmer: „Wenn ein User den Chatbot beleidigt oder das Gespräch eskaliert, leuchtet auf dem Bildschirm eines Mitarbeiters eine rote Farbe auf.“ Diese signalisiere ihm: „Hey, du musst eingreifen.“ Durch dieses Zusammenspiel zwischen Maschine und Mensch, sagt Gansler, könnten Unternehmen die Nutzererfahrung mit Chatbots weiter verbessern.
Zum Anfang
Mit ihrem Handover-Tool, das mittlerweile auf der Facebook-Seite der Bosch-Tochter BSH zum Einsatz kommt, wollen die vier Gründer eine neue Strategie einläuten: weg von der Beschränkung auf Projekte mit Kunden und Partnern hin zu der Entwicklung eigener lizenzierter Produkte. „Wir wollen BOTfriends skalierbarer machen, indem wir eigene Produkte auf unserem Zielmarkt verkaufen, der in erster Linie den deutschsprachigen Raum umfasst“, sagt Daniel Rösch, als Geschäftsführer zuständig für die Produkte des Unternehmens.

Um das zu erreichen, sind er und seine Mitarbeiter vor allem auf eines angewiesen: Daten. Zwar entwickle BOTfriends keine eigene künstliche Intelligenz, sondern baue auf bestehenden Services auf dem Markt auf, betont Rösch. Damit seine Entwickler die KI aber so trainieren könnten, dass aus ihr letztlich ein funktionierender Chatbot entstehe, brauche es viele Leute, die diesen nutzen würden: „Je mehr User mit dem Bot kommunizieren, desto mehr lernt er dazu“, erklärt der junge Unternehmer. Denn je mehr Daten es gebe, auf denen die Entscheidung für eine Antwort basiere, desto genauer sei letztlich auch die Antwort des Roboters.
Zum Anfang
Einsatzfelder für Chatbots und Sprachassistenten – da sind sich die Gründer von BOTfriends einig – gebe es zuhauf: Im Kundenservice, Recruiting und im Bereich Vernetzung, aber auch im Marketing und in der internen Kommunikation würden derartige Sprachroboter zunehmend nachgefragt. „Unternehmen können mit Chatbots heute schon erhebliche Ressourcen einsparen“, sagt Kevin Dees. Dabei werde sich ihr Nutzen künftig nicht nur auf den Austausch von Informationen beschränken: „In China ist es schon gang und gäbe, dass man Bestellungen über Sprachroboter abwickelt.“ Daher sei es nur eine Frage der Zeit, bis sich diese Entwicklung auch in Deutschland durchsetze, ist Dees überzeugt.  

Doch bei all den Veränderungen, welche KI, Digitalisierung und Big Datamit sich bringen, wollen sich die Gründer eine Sache auf jeden Fall bewahren: ihre lockere und selbstbestimmte Art. „Wir machen das, weil es uns Spaß macht und wir einen Sinn darin sehen“, sagt Michelle Skodowski mit einem Lächeln auf den Lippen. Das sei auch einer der Gründe gewesen, warum die BOTfriends keine fremden Investoren ins Boot geholt hätten.
Zum Anfang

Social Bots

Social Bots erlangten 2016 erstmals weltweite Aufmerk-samkeit. Damals wurde bekannt, dass Donald Trump und Hillary Clinton im US-Wahlkampf auf die digitalen Helfer zurückgriffen. Dabei verbreiteten die Social Bots manipulierte Botschaften im Netz und beeinflussten somit die Meinungen der Bürger.  Auch in Deutschland erreichten Social Bots die Politik, doch forderte Außenminister Heiko Maas (SPD) bereits im Juli 2017 auf, komplett darauf zu verzichten. Er sprach von täuschend echten Beiträgen, die Meinungen beeinflussen und Wahlen manipulieren können. Alle Parteien des Bundestags stimmten daraufhin zu, Social Bots nicht im Wahlkampf einzusetzen. 
Zum Anfang
Ein Social Bot ist ein computergesteuertes Programm, das in sozialen Medien kommuniziert – sich also als realen User ausgibt. Dabei führt die Software mithilfe eines vorprogrammierten Verhaltensmusters (Algorithmen) festgelegte Aufgaben eigenständig aus. Entwickler perfektionieren die zugrundeliegenden Algorithmen kontinuierlich. Längst können Social Bots menschliches Verhalten imitieren und im Internet autonom interagieren. Daher wird es immer schwieriger, Aktivitäten eines Social Bots von denen eines Menschen zu unterscheiden.
Zum Anfang
Ein Social Bot sucht nach Keywords oder scannt Twitter Timelines und Facebook-Posts, um bestimmte Wörter oder Hashtags zu finden. Ist ein Bot fündig geworden, reagiert er mit vorbestimmten Antworten und Kommentaren. In Ausnahmefällen können Bots sogar eigene Aussagen formulieren. Diese werden dann aus Texten zusammengebaut, die der Bot auf bestimmten Internetseiten findet.

Durch das Zusammenbauen von Texten ergeben sich mehr oder weniger sinnhafte Posts. In bestimmten Fällen kopiert ein Bot auch kurzerhand ganze Aussagen realer User. Solch einen Bot zu erstellen, erfordert heutzutage keine großen Informatik-Kenntnisse mehr. Es gibt mittlerweile vorgefertigte Programme, mit deren Hilfe man einen einfachen Social Bot mit etwas Geld und ein paar Minuten Zeit schnell selbst erstellen kann.
Zum Anfang
Data Scientist Lutz Finger unterscheidet im Forbes Magazin zwischen fünf möglichen Funktionen eines Social Bots:

Die wahrscheinlich bekannteste ist die zur Bekanntheitssteigerung. Hierbei fungieren die Bots als augenscheinlich echte Menschen, die einer Person, einem Unternehmen oder einem Produkt folgen oder dieses liken. 

Eine weitere und für User weitaus nervenaufreibendere Art von Social Bots sind Bots, die spammen – sprich User regelrecht verfolgen und mit Informationen bombardieren. Mit Nachrichten und Posts versuchen sie, ähnlich wie Spam-E-Mails, den User zu einem bestimmten Verhalten zu überreden. 

Gefährlicher sind Social Bots, die versuchen, anderen durch Unfug zu schaden. Ein Bot kann sich beispielsweise als eine Person des öffentlichen Interesses ausgeben, um deren Ansehen mithilfe des für echt gehaltenen Fake-Accounts herabzusetzen.  

Darüber hinaus gibt es Social Bots, die versuchen, die öffentliche Meinung zu beeinflussen – durch eine Vielzahl an Bots (Bot-Netzwerk), die bestimmte Schlagworte oder Hashtags immer wieder verwenden. Diese Bots täuschen somit künstliche Popularität bestimmter Themen vor oder stellen Ereignisse dar, die so nie stattgefunden haben. 

Zu guter Letzt gibt es Social Bots, die versuchen, die freie Rede einzuschränken. Durch das dauerhafte Spammen von Nachrichten rutschen wichtige beziehungsweise reale Posts oder Tweets in den Timelines immer weiter nach unten. Nutzer lesen somit nur noch die obersten und daraus folgend die gefälschten Kommentare.
Zum Anfang
Einen Social Bot von einem realen User zu unterscheiden, ist oft schwieriger, als es auf den ersten Blick scheint. Denn die Technik hinter den Bots – der Algorithmus – verändert sich täglich. Basierend auf Erkenntnissen der Oxford University werden Accounts, die durchschnittlich 50 oder mehr Tweets oder Likes pro Tag abgeben, als Bot identifiziert. Problematisch ist hierbei jedoch, dass sehr aktive User, wie beispielsweise Blogger oder Influencer, automatisch als Bot kategorisiert werden.

Unternehmen wie „Botswatch“ haben sich darauf spezialisiert, Bots in sozialen Netzwerken zu identifizieren. Mithilfe eines Tools, das verschiedene Kriterien in Echtzeit prüft, erkennen sie frühzeitig auffällige Accounts. Ihre Erkenntnisse geben sie an Nachrichtenagenturen und Medienunternehmen weiter. Schließlich nehmen Social Bots gerade in Krisensituationen wie einem Terroranschlag besonders Fahrt auf. 

Auch die Betreiber von Social Media Plattformen sind sehr bemüht, Social Bots zu identifizieren. Dennoch ist es fast unmöglich, alle Bots auf einer Plattform zu löschen. Die Plattform Twitter beispielsweise hat in einer Offensive gegen Fake-Accounts und Bots im Mai und Juni 2018 insgesamt rund 70 Millionen auffällige Konten gesperrt.
Zum Anfang
Ein vom Bundestag beauftragter, 20-köpfiger Sachver-ständigenrat kam im April 2017 zu folgendem Ergebnis: Bisher gebe es nur eine begrenzte Anzahl an prominenten Beispielen, auf die sich sowohl die Presse als auch die Forschung stürze. Daher sei es kaum verwunderlich, dass es noch keine wissenschaftlichen Studien gebe, in denen nachgewiesen werde, inwiefern Social Bots gesellschaftliche Gruppen beeinflussen.

Unter Experten bleibt es weiterhin strittig, ob wir uns davor fürchten müssen, dass Social Bots uns manipulieren. Nur weil eine Nachricht von vielen Nutzern geteilt wird, muss dies letztendlich nicht bedeuten, dass dies andere Nutzer in ihrem Verhalten beeinflusst.
Zum Anfang

KI & Sicherheit

Zum Anfang

Predictive Policing

Das Jahr 2054: Eine Spezialeinheit der Polizei von Washington, D.C erkennt Morddelikte mithilfe hellseherischer Fähigkeiten, bevor sie überhaupt passieren. So können die Taten verhindert werden, die Mordrate in der Hauptstadt der USA sinkt auf null. Diese Zukunftsvision aus dem Spielfilm “Minority Report” beginnt, Realität zu werden. Allerdings nicht mithilfe hellseherischer Fähigkeiten, sondern mit künstlicher Intelligenz (KI).

Künstliche Intelligenz hat bereits Einzug in viele Lebensbereiche gehalten. Doch was wäre, wenn sie unseren Alltag nicht nur effizienter, sondern unser Leben sicherer machen würde? Genau das verspricht Predictive Policing – die vorausschauende Polizeiarbeit. Die Idee der Polizeiarbeit der Zukunft ist einfach: Statt Verbrechen aufzuklären, sollen diese mithilfe von Big Data und KI möglichst genau vorhergesagt und somit verhindert werden.

Hinter dem Ganzen steckt eine intelligente Software, die Daten und Statistiken analysiert und nach Mustern und Korrelationen sucht. Daraus errechnet sie die Wahrscheinlichkeit künftiger Straftaten mit Tatort und -zeit. Mithilfe dieser Ergebnisse können Polizeieinsätze genauer und effizienter geplant, Geld gespart und die öffentliche Sicherheit verbessert werden.
Zum Anfang
In Deutschland verwenden oder testen zurzeit sechs Bundesländer die Software – hauptsächlich, um Wohnungs-einbrüche zu bekämpfen. Als Vorreiter gilt in diesem Bereich Bayern: Dort ist seit 2014 die kommerzielle Software PRECOBS im Einsatz, die mithilfe von intelligenten Algorithmen Verbrechen vorherzusagen verspricht.

PRECOBS basiert auf dem Near-Repeats-Modell. Dieses besagt, dass ausgehend von einem Triggerdelikt, die Wahrschein-lichkeit einer unmittelbaren Folgetat in der näheren Umgebung des Tatorts steigt. Konkret bedeutet das: Nach einem Wohnungseinbruch besteht in den darauffolgenden Tagen erhöhte Gefahr, dass auch in der Nachbarschaft eingebrochen wird. Der Ansatz basiert auf der Annahme, dass insbesondere Serientäter und professionell organisierte Verbrecher rational Nutzen und Kosten abwägen. Haben sie die Gegend bereits einmal ausgespäht und kennen mögliche Gewinne und Fluchtwege, liegt es nahe, am gleichen Ort noch einmal zuzuschlagen. 
Zum Anfang
2015 startete auch Baden-Württemberg in den Kreisen Stuttgart und Karlsruhe ein Pilotprojekt mit der PRECOBS-Technologie, da in diesen beiden Gebieten verglichen mit dem Rest des Bundeslandes oft eingebrochen wird. Das Max-Planck-Institut für ausländisches und internationales Strafrecht begleitete die einjährige Testphase – und kam zu dem Schluss, dass Predictive Policing vermutlich einen positiven Effekt hat. Eindeutig nachweisbar ist er jedoch nicht. Laut der Forschungseinrichtung gingen im Beobachtungszeitraum die Wohnungseinbrüche in den Stadtkreisen Stuttgart und Pforzheim zwar zurück. Allerdings sank auch in anderen baden-württembergischen Städten, die nicht Teil des Projekts waren, die Fallzahl. Der Rückgang der Straftaten kann also nicht ohne weiteres nur dem Einsatz der neuen Technologie zuge-schrieben werden, weil viele Faktoren die Kriminalitäts-entwicklung beeinflussen.
Zum Anfang
Nordrhein-Westfalen geht beim Predictive Policing zur Kriminalitätsbekämpfung noch einen Schritt weiter: Hier prognostiziert das vom Landeskriminalamt (LKA) eigens entwickelte System SKALA zusätzlich zu Wohnungseinbrüchen auch Gewerbeeinbrüche. Neben polizeilichen Falldaten, werden dabei auch soziodemographische Daten wie Einwohner- und Gebäudestruktur, Verkehrsanbindung, Kaufkraft und Mobilität in die Analyse einbezogen. Diese bezieht das LKA, laut eigener Aussage, kommerziell.

Die Beispiele aus Bayern, Baden-Württemberg und Nordrhein-Westfalen zeigen, wie die Polizeiarbeit mithilfe künstlicher Intelligenz modernisiert und die Polizeibehörden entlastet werden. Aber wo Deutschland noch weit weg von Science-Fiction-Scenarios á la “Minority Report” ist, sind die USA der Zukunftsvision schon ein ganzes Stück näher: Laut einer Befragung wandten im Jahr 2014 bereits etwas mehr als zwei Drittel aller amerikanischen Polizeistationen Predictive-Policing-Methoden an – und zwar nicht nur, um Einbrüche zu bekämpfen.
Zum Anfang
In Chicago wird nicht nur vorhergesagt, wo ein Verbrechen stattfinden, sondern auch, wer der Täter sein wird. Denn hier wertet die lokale Polizeibehörde nicht nur die Daten zu Straftaten, sondern auch personenbezogene Daten aus und kombiniert diese mit weiteren Informationen wie Wetterdaten und sozioökonomische Faktoren von Risikogebieten. So sollen vor allem Schießereien und Morde verhindert werden.

Möglich macht dies eine Liste mit potenziellen Gefährdern, die „Strategic Subject List“. Sobald eine Person polizeilich auffällig wird, wird sie nach einem Punktesystem bewertet – je höher die Punktzahl, desto wahrscheinlicher ist es, dass die Person wieder straffällig wird. Grundlage des Punktesystems ist ein intelligenter Algorithmus, der acht Faktoren wie z. B. die Mit-gliedschaft in einer Gang oder einer Verhaftung wegen eines Drogendelikts analysiert und für die jeweilige Person aus-wertet. Die Polizisten gehen gemeinsam mit Sozialarbeitern auf potenzielle Gefährder zu und versuchen sie vor Rückfällen zu bewahren. Das Chicago Police Department berichtet, dass die Anzahl von Schießereien und Morden in den Einsatzgebieten des Predictive Policing sinkt.
Zum Anfang
Obwohl sich in den USA gezeigt hat, dass Predictive Policing erfolgreich sein kann, kritisieren Bürgerrechtsorganisationen das Vorgehen. Sie sehen die Gefahr vor allem  im Racial Profiling, also der strategischen Diskriminierung ethnischer und religiöser Minderheiten. Da Predictive Policing mit Daten aus der Vergangenheit arbeitet, setzt ein selbstverstärkender Effekt ein – bereits benachteiligte Bevölkerungsgruppen werden systematisch weiter benachteiligt.

Ein weiterer Kritikpunkt ist das Thema Datenschutz. Theoretisch ist es möglich, eine Unmenge an Daten zu sammeln und miteinander zu verknüpfen, um genauere Analysen zu erhalten. Praktisch ist dies jedoch oft aufgrund datenschutzrechtlicher Bestimmungen schwierig. In Deutschland werden daher (noch) keine personenbezogenen Daten genutzt, um Kriminalität präventiv mithilfe von KI zu bekämpfen.
Zum Anfang
Im Film „Minority Report“ wird aufgrund einer falschen Vorhersage ein Unschuldiger verhaftet. Dies wirft die Frage auf, wie weit man überhaupt gehen darf, wenn es darum geht, mögliche Straftaten und vor allem Täter mittels einer KI vorauszusagen. Inwieweit kann man einem Algorithmus, der lediglich mathematische Zusammenhänge analysiert, vertrauen? Oder ihn gar über die Zukunft eines Menschen entscheiden lassen? Die Polizeiarbeit der Zukunft bietet zwar die Chance, die Gesellschaft sicherer zu machen, aber um welchen Preis?
Zum Anfang

Gesichtserkennung

Während eines ihrer Konzerte in Kalifornien im Mai 2018 ließ die Sängerin Taylor Swift unbemerkt ihre Zuschauer scannen. Das geht aus einem im Dezember 2018 erschienenen Bericht des Magazins „Rolling Stone“ hervor. Insgesamt 90.000 Zuschauer betrachteten Probe-Aufnahmen der Sängerin auf einem Bildschirm – ohne zu wissen, dass eine Kamera dahinter ihre Gesichter erfasste. Eine Gesichtserkennungssoftware verglich diese dann mit Gesichtern bekannter Swift-Stalker. Was hierzulande wie ein Horrorszenario klingt, ist in den USA aufgrund geringer datenschutzrechtlicher Regulierungen durchaus möglich.
Zum Anfang
Eine Gesichtserkennungssoftware ist ein Programm, das auf Künstlicher Intelligenz (KI) basiert. Der intelligente Algorithmus kann selbstständig Gesichter erkennen, kategorisieren und vergleichen. Hierfür muss der Computer das Gesicht allerdings in ein sogenanntes biometrisches Datum umwandeln. Dafür vermisst er bestimmte Merkmale wie die Größe und Position der Augen oder den Abstand zwischen Nase und Mund. Aus den errechneten Daten entsteht ein Muster – der sogenannte Hashwert, der für jeden Menschen einzigartig ist.

Die Software vergleicht also nicht einfach zwei Gesichter miteinander, sondern deren Hashwerte. Sie wird jedoch nicht nur für das reine Erkennen und Vergleichen von Gesichtern eingesetzt. So kann sie auch die Emotionen von Menschen erfassen und auswerten – die Ergebnisse werden beispielsweise für Werbezwecke genutzt oder um Einbrecher von Bewohnern zu unterscheiden. Auch Deep-Learning-Netzwerke spielen im Bereich der Gesichtserkennung eine große Rolle. Mithilfe künstlicher neuronaler Netze sollen Gesichter in Zukunft noch besser und zuverlässiger erkannt werden.
Zum Anfang
Wenn Gesichter mithilfe einer Software erkannt werden, spart dies zunächst einmal Zeit. Ob beim Entsperren des eigenen Smartphones, beim Bezahlen im Restaurant oder beim Betreten des Flugzeugs: Die KI arbeitet schneller, als der Mensch getippt, seinen Geldbeutel oder seine Bordkarte am Flughafen gezückt hat.

Für Befürworter intelligenter Überwachungssysteme ist jedoch vor allem der Aspekt der Straftatenprävention wichtig. Würden Bahnhöfe, Flughäfen und andere öffentliche Plätze mit Kameras ausgestattet, die mit einer Gesichtserkennungs-software arbeiten, würde dies die Suche nach Straftätern oder Terroristen deutlich erleichtern. Verbrecher könnten demnach schneller geschnappt und Anschläge verhindert werden.
Zum Anfang
Wer Gesichtserkennungssoftware anwendet, greift in die Privatsphäre des Einzelnen ein. Passiert dies auf öffentlichen Plätzen, werden gleichzeitig Stimmen laut, die vor ständiger Überwachung warnen und Szenarien wie in Orwells Roman „1984“ heraufbeschwören. Während zum einen die Privat-sphäre des Einzelnen gegen das Gemeinwohl abgewogen werden muss, müssen die erfassten Daten zum anderen vor Missbrauch geschützt werden. Beispielsweise könnten Hacker der Software falsche Daten liefern, indem sie die KI mit x-beliebigen Profilbildern aus sozialen Netzwerken füttern – und diese dadurch am Ende Unschuldige mit Straftätern ver-wechseln. Das Thema Identitätsdiebstahl würde damit ganz neue Dimensionen erreichen.

Wie in vielen anderen Bereichen, in denen KI eingesetzt wird, gilt auch beim Thema Gesichtserkennung: Es gibt noch eine Menge datenschutzrechtlicher, politischer und ethischer Fragen, die vor dem massenhaften Einsatz dieser Systeme geklärt werden müssen. Während Apps wie „FaceID“ und „Trusted Face“ bisher nur privat genutzt werden, betrifft die Überwachung öffentlicher Plätze mittels intelligenter Videosoftware jeden Bürger. Auch wenn die Technologie bereits existiert, der Weg, der Sicherheit mit Datenschutz und dem Recht auf Privatsphäre verbindet, muss in Deutschland noch gefunden werden.
Zum Anfang

Intelligente Videoüberwachung

Mannheim setzt als erste Stadt in Deutschland künstliche Intelligenz, in Form einer Algorithmen-basierten Bild-auswertung, ein. Ziel ist es, dass das System Straftaten selbstständig erkennt und automatisch einen Warnhinweis an die Polizei gibt. Dabei soll die Technik dem hohen Anspruch der Polizei gerecht werden – bei einem Gewaltdelikt sofort reagieren zu können.
Neu an der Technik ist, dass sie nicht auf einer Gesichts-erkennung basiert, sondern auf dem Erkennen bestimmter Verhaltensmuster wie zum Beispiel Schlagen, Rennen, Treten oder Hinfallen.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
In Mannheim kommt die Videoüberwachung an verschiedenen öffentlichen, innerstädtischen Orten zum Einsatz – immer dort, wo ein besonderer Kriminalitätsbrennpunkt vorliegt. Unter einem Kriminalitätsbrennpunkt versteht man einen Bereich, an dem sich die Kriminalität deutlich von der durchschnittlichen Kriminalitätsrate abhebt, wie zum Beispiel am Bahnhofsvorplatz.

Insgesamt werden heute mit 79 Kameras 29 Standorte in Mannheim videoüberwacht. Einige Bereiche wurden gleich mit drei oder vier Kameras ausgestattet. Gründe hierfür können die entsprechende örtliche Lage, die Verdickungssituation, Bäume oder andere Hindernisse sein. Die Anordnung ist dabei so gewählt, dass die Polizei in der Lage ist, alle Bereiche des Kriminalitätsbrennpunktes einzusehen.
Zum Anfang
Zum aktuellen Zeitpunkt kann das System noch keine eigenen Warnhinweise bei kritischen Situationen liefern. Deswegen werten sechs Polizeibeamte Tag für Tag das gesamte Video-material aus. Allerdings soll noch dieses Jahr das System so weit vorangebracht werden, dass es eigenständig Warn-hinweises gibt. Dennoch, auch in Zukunft wird die endgültige Entscheidung, ob gerade eine Straftat geschieht oder nicht, weiterhin beim Menschen liegen. Denn bei bestimmten Verhaltensmustern von Personen hat die Künstliche Intelligenz noch seine Schwächen in der Erkennung:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Ob eine kritische Situation vorliegt, entscheiden die Polizisten an ihren Bildschirmen im Lagezentrum. Unter einer kritischen Situation versteht die Polizei eine strafrechtlich relevante Handlung, die ein Eingreifen erfordert. Die Zeit zwischen der Wahrnehmung eines Ereignisses an den Bildschirmen und dem Eintreffen der Polizei vor Ort beträgt im Schnitt 2,5 Minuten.
Zum Anfang
Seit 2014 stellt die Polizei Mannheim eine zunehmend Straßen-kriminalität in bestimmten Stadtgebieten fest. Da diese das Sicherheitsgefühl der Bürger und Bürgerinnen beeinflusst, strebt die Polizei vor allem in diesem Bereich nach einer Verbesserung. Das bedeutet alle Delikte im öffentlichen Raum, sollen mithilfe von künstlicher Intelligenz vermindert werden.

Der Zweck der intelligenten Videoüberwachung kann in zwei Bereiche eingeteilt werden. Zum einen soll sie die Polizeiarbeit durch ein schnelles Eintreffen vor Ort und bei der Aufklärung von Straftaten unterstützen. Zum anderen soll sie zur Prävention von Straftaten dienen, indem sie eine verstärkt abschreckende Wirkung auf potenzielle Straftäter schafft.
Bei der Aufklärung von Straftaten kann das Videomaterial verwendet werden, allerdings gibt es bei der Speicherung spezielle Vorschriften.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Es gibt aber auch rechtliche Herausforderungen bei der Videoüberwachung. §21 des Polizeigesetztesin Baden-Würtembergerlaubt der Polizei nur dort eine Kamera an-zubringen, wo ein Kriminalitätsbrennpunkt klar nachgewiesen ist. Auch darf sie nur solche Bewegungsmuster automatisiert auswerten, welche auf die Begehung einer Straftat hinweisen.

Bevor die Polizei die Videokameras in der Stadt angebracht hat, hat sie zunächst die Bürger Mannheims über das Projekt aufgeklärt: Z.B. wurden Schilder aufgestellt, die ausführlich und in mehreren Sprachen über die Videoüberwachung informieren.
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang

Cybergrooming

Cyber-Grooming, so nennt sich die gezielte Kontaktaufnahme zu zumeist minderjährigen Internetnutzerinnen und -nutzern mit dem Ziel der Anbahnung sexueller Kontakte. Künstliche Intelligenz in einer Handy-App soll pädokriminelle Übergriffe frühzeitig erkennen und Kinder schützen.
Zum Anfang
Geschäftsführer Patrick Schneider malt ein Horrorszenario aus, das niemand erleben möchte. ‘WhatsSafe‘ heißt die Web-App, die er mit seinem Team zum Schutz von Kindern entwickelt hat. Er betont, dass Cyber-Grooming in den meisten Fällen nur entdeckt werde, wenn Eltern die Nachrichten ihrer Kinder kontrollieren oder sie zufällig lesen.
Zum Anfang
Cyber-Grooming ist in der Kriminalstatistik nicht als eigener Straftatbestand festgehalten, weswegen auch keine genauen Zahlen dazu vorliegen. „Nur wenige solcher Fälle kommen zur Anzeige, denn Kinder haben oft ausgeprägte Schamgefühle, überhaupt in solch eine Situation gekommen zu sein“, sagt Polizeidirektor Joachim Schneider von der polizeilichen Kriminalprävention der Länder und des Bundes in Stuttgart. Daher sei die Dunkelziffer hoch.

Janina Neutze und Halina Sklenarova von der Universität Regensburg haben 2018 im Rahmen des Projekts MiKADO (Missbrauch von Kindern: Aetiologie, Dunkelfeld, Opfer) eine Datenanalyse vorgenommen. Demnach haben 16 Prozent der 14-Jährigen bereits Erfahrungen mit sexuellen Online-Kontakten gemacht.
Zum Anfang
Einen ersten Kontakt bauen oft auch deutlich ältere User auf Sozialen Medien wie Instagram und TikTok oder auch in Online- Gaming-Plattformen auf. Früher oder später wird die Konversation dann auf private Messenger wie Whatsapp geleitet. An dieser Stelle soll ‘WhatsSafe‘ zum Einsatz kommen. Die App arbeitet mithilfe der künstlichen Intelligenz ‘Privalino‘ und soll erkennen, ob es sich um eine „gefährliche Kommunikation“ handelt. Über eine in Whatsapp integrierte QR-Code-Schnittstelle wird der Chat des Kindes mit dem Server von ‘WhatsSafe‘ verbunden. Ab diesem Zeitpunkt werden alle Nachrichten anonymisiert weitergeleitet. So lassen sich keine Rückschlüsse auf personenbezogene Daten der Chatpartner ziehen. Handynummern, Bilder, Videos oder Sprachaufnahmen wertet das System allerdings nicht aus.
Zum Anfang
Sobald die KI eine fragwürdige Konversation entdeckt, wird eine Mail an die Eltern versendet. Sie enthält den Ausschnitt aus dem Chat, der den Alarm ausgelöst hat und die Option zu bewerten, ob es sich um einen richtigen oder einen Fehlalarm handelt. Die Mitarbeiter von WhatsSafe greifen weder in den Chat ein, noch alarmieren sie die Polizei, da sie niemanden zu Unrecht kriminalisieren wollen. Anzeige müssten die Eltern erstatten.
Zum Anfang
Die Schwierigkeit, die es bei der Entwicklung zu überwinden galt, liegt im Medium selbst, denn ein Chat ist weder ein strukturierter Aufsatz noch ein zusammenhängender Text. So kann sich eine Aussage beispielsweise bloß durch einen beigefügten Emoji verändern und anzüglich werden. Der fehlende Kontext macht es also schwer, semantische Informationen herauszuziehen. In der Entwicklung sei es deshalb wichtig, festzulegen, wie die Texte verschlagwortet werden, erklärt Schneider. Denn auch einzelne Wörter wie beispielsweise „Schwanz“ haben in unterschiedlichen Kontexten eine jeweils andere Bedeutung. Es muss also die gesamte Kommunikation bis hin zur Nachricht bewertet werden.
Zum Anfang
Zu Beginn haben sich die Gründer selbst als Kinder in Chat-portalen ausgegeben und somit etwa 30.000 Nachrichten als Startdatensatz gewonnen. Diese Nachrichten wurden verschlagwortet – was ist bedenklich und was nicht. Auf Grundlage dieser Daten wurde das Privalino-Programm trainiert. Das Abgleichen der Nachrichten mit den Trainings-daten soll es ermöglichen, den Gefährlichkeitsgrad einer Konversation einzustufen. Ähnliche Muster in den Texten, bekannte Maschen etwa, sollen bereits reichen, um sexuelle Absichten darin zu erkennen. Rechtschreibfehler hindern das Programm nicht. Oft starten Täter damit, das Vertrauen des Kindes zu gewinnen und seine Schwächen herauszufinden. Sie reden über Probleme in der Schule, mit Freunden oder Eltern. Rein inhaltlich könnte solch eine Konversation allerdings auch zwischen einer Vertrauensperson und dem Kind stattfinden. „Pädokriminelle haben aber ein klares Ziel und werden dieses auch irgendwann deutlich machen“, erklärt Patrick Schneider. Die KI soll sich dann auch nicht von zuvor geschickten, „vertrauensvollen“ Nachrichten täuschen lassen. Allerdings ist Privalino nicht komplett fehlerfrei und schickt ab und zu einen Fehlalarm an die Eltern.
Zum Anfang
Um dem entgegenzuwirken soll ‘WhatsSafe‘ die Userdaten nutzen, um seine KI permanent zu verbessern. Das bedeutet aber auch, dass Nachrichten von den Mitarbeitern gelesen und ausgewertet werden. Patrick Schneider sagt, die KI würde andernfalls auf einem Level feststecken, das nicht die Sicherheit erhöhe.

Da die Anzahl der Daten enorm groß sei, sei es unmöglich, alle Nachrichten zu lesen und zu untersuchen. Jede Konversation bekommt einen Gefährlichkeitsgrad von Null (absolut un-gefährlich) bis Eins (höchste Gefahrenstufe) zugeteilt. Aufgrund der großen Datenmengen würden nur die Konversationen betrachtet, bei denen die KI einen etwas höheren Output hatte, ohne aber einen Alarm auszulösen, etwa jene mit einem Wert von 0,6 bis 0,7. Sollte tatsächlich eine gefährliche Konversation darunter sein, können die Mitarbeiter auch händisch einen Alarm an die Eltern schicken.
Zum Anfang
Mit Fragen nach dem Datenschutz sieht sich ‘WhatsSafe‘-Geschäftsführer oft konfrontiert. „Wenn der Kinderschutz so massiv bedroht ist, muss man ihn über den Datenschutz und die Privatsphäre setzen“, meint er. Um den Kindern trotzdem eine Privatsphäre zu garantieren, können Eltern Chat- Kontakte, beispielsweise von Freunden und Verwandten, in eine sogenannte Whitelist eintragen. Diese Chats werden dann von der KI nicht mehr ausgewertet. Die Nutzung des Tools liegt allerdings ganz im Ermessen der Eltern. Theoretisch wäre es möglich, alle Chats seines Kindes überwachen zu lassen. Künftig soll eine neue Funktion zudem mitteilen, ob das Kind neue Kontakte hat und wie viel es kommuniziert.

Zum Anfang
Die Betreiber von ‘WhatsSafe‘ fokussieren sich bei ihrer Arbeit vor allem auf Acht- bis Zwölfjährige, also jene Altersgruppe, in der viele Kinder ihre ersten eigenen Smartphones besitzen. Bereits Kleinkinder können heute zwar auf diversen Geräten Apps nutzen oder Videos abrufen. Medienkompetent sind sie und auch ältere Kinder deswegen noch lange nicht. Dazu gehört der kritische, reflektierte Umgang mit Medien und Sozialen Netzwerken.
Patrick Schneider sieht die Erziehungsberechtigten in einer zentralen Rolle. Kein Elternteil setzt sich gerne mit der Thematik des Kindesmissbrauchs auseinander. Deshalb stößt die App bei einigen Usern zunächst auf Skepsis. „Wir müssen uns mit den digitalen Welten der Kinder beschäftigen“, sagt Schneider. Wenn es um Online-Medien geht, werden die Rollen getauscht und Kinder erklären ihren Eltern die virtuelle Welt. Es sei daher ein Problem, wenn die Eltern diese nicht verstehen.
Zum Anfang
Die „Instant Gratification“ – die „direkten Belohnung“ – sei in den Mechanismen von Social Media tief verankert: User posten ein Bild und werden dafür mit Likes direkt belohnt. Für Kinder sei das sehr gefährlich, weil sie diese Mechanismen nicht hinterfragen. Es gehe hauptsächlich um Anerkennung – Likes und Followerzahlen verbinden sie mit Erfolg. Aber wer kennt schon all seine Follower persönlich? „Das ist etwas relativ Neues, dass Kinder überhaupt so ein riesiges Netzwerk aus Kontakten zur Verfügung haben, wahrscheinlich größer als das der Eltern“, sagt Patrick Schneider. Ein junges Mädchen macht sich keine Gedanken, wenn es auf TikTok ein leicht laszives Video hochlädt. Auch anzügliche Kommentare werden nicht immer als sexuelle Belästigung oder eine Art von Missbrauch wahrgenommen. „Genau in diesem Alter ist es schwierig, Kindern zu sagen ‚Hey, das ist gefährlich was hier passiert‘, weil sie sich gnadenlos überschätzen“, sagt Schneider.
Zum Anfang
Ich möchte die App ausprobieren, und das natürlich schon vor dem Interview mit Geschäftsführer Patrick Schneider. Also melde mich bei WhatsSafe an. Das geht einfach und unkompliziert. Jetzt könnte ich das Smartphone eines Kindes mit Hilfe der QR-Schnitt- stelle verbinden – für den Versuch verbinde ich mein eigenes Handy und kann eine Sicherheits-stufe angeben: niedrig, mittel oder hoch. Je höher diese eingestellt ist, desto sensibler reagiert das Programm und desto häufiger können auch Fehlalarme ausgelöst werden. Ich stelle die Sicherheitsstufe auf hoch ein.
Zum Anfang
Ich bitte einen Freund, mir Nachrichten mit explizit sexuellen Inhalten zu schicken. Ich bekomme keine Warnhinweise. Einen Tag später teste ich die KI erneut. Diesmal bekomme ich eine Mail. „Achtung:WhatsSafe hat eine auffällige Konversation entdeckt!“ Ich sehe den verdächtigen Textausschnitt, den mir der Freund geschickt hat. Die Handynummern sind anonymisiert und werden nur zur Hälfte angezeigt. Jetzt habe ich die Möglichkeit, diesen Alarm zu bewerten, richtig oder falsch. In der Mail sind zudem noch Tipps enthalten, wie ich als Elternteil im Falle eines richtigen Alarms handeln kann, mit Verweisen auf bekannte Webseiten wie Klicksafe.
Zum Anfang
Ich habe mein Smartphone weiterhin mit ‘WhatsSafe‘ verbunden. Meine Mutter schreibt und fragt, ob sie mir etwas vom Einkaufen mitbringen soll, es geht um Haarpflege-produkte. Ich bekomme wieder eine Warnung per Mail.
Dieses Mal ist es offensichtlich ein falscher Alarm.

Ich spreche beim Interview mit Patrick Schneider die ent-sprechenden Nachrichten an und finde heraus, dass auch er sie bereits gelesen hat. Ich fühle mich durchleuchtet. Zu wissen, dass ein Fremder meine Nachrichten liest, ist ziemlich un-angenehm, auch wenn es sich hierbei nicht wirklich um private Informationen handelt. Ich trenne die Verbindung zu meinem Handy wieder.
Zum Anfang

Smart Cities

Ampelsysteme werden kontinuierlich an das steigende Verkehrsaufkommen adaptiert. Anpassungsfähige und kommunizierende Ampeln sollen dafür sorgen, dass der Verkehrsfluss zukünftig noch besser kontrolliert werden kann. Das Unternehmen InnoSenT befasst sich mit dieser Problematik, indem es ein Radarsystem entwickelt hat, das mit künstlicher Intelligenz die Verkehrslage verbessern kann.
Zum Anfang
Seit 20 Jahren entwickelt, produziert und vermarktet InnoSenT Radar- und Sensorensysteme für nationale, sowie internationale B2B-Kunden. In den Bereichen Security, Smart Home, Traffic, Level Measurement, Collision Avoidance oder Automotive hat das Unternehmen bereits zahlreiche Radarapplikationen entwickelt, die im Alltag für zusätzlichen Komfort und Schutz sorgen.

 

Der Bereich Traffic umfasst die Anwendung der Sensoren und Systeme für die Erkennung der Geschwindigkeit, Entfernung, Fahrtrichtung und Position diverser Verkehrsteilnehmer.

In der nachfolgenden Erläuterung wird ihre Funktionsweise von Frau Dr. Eva Maria Buchkremer, Produktmanagerin bei InnoSenT, dargestellt:


Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Das Unternehmen nutzt die künstliche Intelligenz, kurz KI, zur Objektklassifizierung. Insbesondere bei der Ampelsteuerung ist diese Klassifizierung hilfreich. Das Radarsystem erkennt, ob es sich bei dem heranfahrenden oder wegfahrenden Objekt um einen PKW, LKW oder anderen Verkehrsteilnehmer handelt. Aufgrund der erhaltenen Information können anschließend die Grünphasen angepasst werden.

Dr. Buchkremer erklärt wie genau ein Radarsystem mit künstlicher Intelligenz in Ampeln funktioniert:
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Besonders im Straßenverkehr hat sich die Radarsensorik seit vielen Jahren bewährt. Das Traffic Monitoring – die Verkehrs-überwachung – bringt einen außerordentlichen Nutzen. Beispielsweise werden die Verkehrsstatistik, die Verkehrs-zählung oder die Ermittlung des Verkehrsaufkommens und der Warteschlangen durch Radaranwendungen durchgeführt.



Doch auch bei der Kontrolle der Ampeln kommt Radar-technologie zum Einsatz. Der Lichtwechsel einer Ampel kann, abhängig vom gemessenen Verkehrsaufkommen, gesteuert werden – bis hin zum zeitweiligen Abschalten der Ampel bei geringem Verkehr. Die durch Radartechnologie gewonnenen Verkehrsinformationen bieten somit eine Grundlage zur Analyse und Steuerung der Verkehrsströme.
Zum Anfang
Die angewandte Technologie zeigt genauestens, was auf der Kreuzung und in ihrer Umgebung geschieht. Beispielsweise, ob ein Fahrzeug an der Haltelinie steht, ob sich aktuell Stau bildet, oder wie lange ein Passant zum Überqueren der Straße brauchen wird.

Darüber hinaus kann es die ungefähren Ankunfts- und Wartezeiten an der Kreuzung anhand der Geschwindigkeits- und Entfernungsmessungen berechnen. Auch Rush-Hour Zeiten und Stau-Spitzenwerte können durch Langzeit-auswertungen mit Hilfe des Systems herausgefunden werden. Diese Informationen liefern die Basis, um Ampeln automatisiert und in Echtzeit zu steuern.
Zum Anfang
Radarsysteme sind wichtig um den Straßenverkehr zu optimieren. Trotz ihrer großen Reichweite liefern sie keine hochauflösenden Bilder von Personen oder Fahrzeug-kennzeichen. Ihr Detektionsprinzip ist unabhängig von Lichtverhältnissen oder Umwelteinflüssen, und liefern Informationen wie Geschwindigkeit, Position, Bewegungs-richtung und Distanz von Objekten.

Die Sensoren erkennen z.B. sowohl Falschfahrer als auch Pannenfahrzeuge, messen die Geschwindigkeit und Entfernungen von Fahrzeugen und ermitteln die Fahrspur oder die Fahrtrichtung eines PKWs. Die gewonnen Daten werden dann z.B. auch genutzt Schnellfahrer zu verwarnen oder den Verkehrsfluss zu analysieren. Aber auch zur Absicherung von Bahngleisen und Bahnübergängen werden die Daten genutzt.

Zum Anfang
Gezieltes, effizientes Verkehrsmanagement wird in Zukunft zum Standard moderner Großstädte gehören. Denn der Einsatz von intelligenten Radarsystemen führt zu weniger Lärm und somit zu weniger Stress bei Passanten und insbesondere zu besserer Luft – ein Instrument auf dem Weg zur Green City.
 


Zum Anfang

Cyber bekämpft Cyber

Hackerangriffe sind von vielen gefürchtet. Doch vor allem Banken müssen ihre sensiblen Daten und Konten mit ganzer Kraft schützen – schließlich geht es um viel Geld.   

Jeder kennt Virenscanner. Sie sind auf unseren Computern installiert und sollen uns vor verseuchten Dateien schützen. Im Privaten funktioniert das, doch für große Firmen sind diese Scanner nicht gut genug. Es braucht mehr, um in unserer stark vernetzten Welt früh genug Cyber-Gefahren zu erkennen und Alarm zu schlagen. Für den IT-Experten Harald Merz von der DZ Bank führt kein Weg mehr an Künstlicher Intelligenz vorbei. Er schützt mit seinem Team die Bank vor digitalen Eindringlingen – und schon jetzt läuft vieles nicht mehr ohne Künstliche Intelligenz.
Zum Anfang
„Große Security-Angriffe erleben Banken selten, doch im Kleinen gibt es täglich tausende Versuche, in das Innere der Bank einzudringen“, erklärt Merz. Diese Menge sei aber nicht verwunderlich, denn an den vielen Attacken seien bekannte Sicherheitslücken schuld. Virenverseuchte E-Mail-Anhänge landen bei Bank-Mitarbeitern im Posteingang oder Hacker nutzen aus, dass noch nicht schnell genug das aktuellste Computer-System installiert wurde. Scheinbar banal, aber Mitarbeiter sind Menschen – und Menschen machen Fehler. Merz sensibilisiert mit seinem Team immer wieder die Angestellten der Bank, damit diese vernünftig und wachsam mit ihren Computern umgehen.Sollte doch etwas passieren, beginnt der eigentliche Job der ITler: Cyber-Angriffe auf die Bank mit Künstlicher Intelligenz abwehren – beziehungsweise: erkennen. Künstliche Intelligenz alleine hindert keinen Hacker am Hacken. KI macht die Experten aber auf Unstimmigkeiten im Datenverkehr aufmerksam.
Zum Anfang
Merz sieht sich gut gewappnet, denn: Bis seine Bank gehackt wird, hat er viele Möglichkeiten, den Angreifer zu stoppen. Die Methoden der Hacker haben wenig mit dem Vorgehen der Bösen aus James Bond zu tun. Daten stehlen oder Überweisungen manipulieren, geschieht nicht über Nacht. Doch auch Hacker wissen, wie Künstliche Intelligenz funktioniert und passen ihr Vorgehen an die Technik an. Sie schleusen über Monate hinweg – möglichst unauffällig – ihre schädliche Software in das Banken-System ein. Dabei dürfen sie kein Aufsehen erregen, sonst schlägt die Künstliche Intelligenz bei der kleinsten Auffälligkeit Alarm. Denn die KI ist gnadenlos. Sie ist gar nicht unbedingt besonders intelligent – sie erkennt nur extrem präzise ungewöhnliches Verhalten. Treffsicher. Tag und Nacht. Und vor allem: schnell. Die KI durchleuchtet an den Datenzentren der Bank jede noch so kleine Aktion.
Zum Anfang
Das sind tausende Datenmengen pro Minute. „Menschen könnten diese immensen Datenmassen gar nicht auswerten – zumindest nicht in dieser Geschwindigkeit“, erklärt Merz. Aber Menschen können einer Künstlichen Intelligenz Regeln geben, nach denen sie alle Datenknotenpunkte der Bank scannen soll. 

Versendet ein Computer plötzlich und erstmalig ungewöhnlich viele Daten, dann fällt das den KI-Algorithmen auf. Merz und das Security-Team der DZ Bank gehen diesem Verhalten aber erst nach, wenn sich das auffällige Verhalten häuft. Die KI stellt dem Team in einem anschaulichen Diagramm dar, wie ab-weichend sich das Verhalten äußert und wann die Unregel-mäßigkeiten aufgetreten sind. Hat die Künstliche Intelligenz genug Indizien gesammelt, übernehmen die ITler persönlich und schauen sich den Fall genau an. Das Vorgehen klingt simpel, doch ohne das unermüdliche, schnelle und genaue Auswerten der KI, hätte die Bank keine Chance, die heimlich eingeschleusten Viren zu finden.
Zum Anfang
Technische Unterstützung kann die Künstliche Intelligenz nicht nur im Bereich der Hacker-Abwehr liefern. Sie könnte auch bald mit Kunden online kommunizieren, in dem sie selbstständig Aktienpakete, angepasst an die Finanzlage des Kunden, empfiehlt. Doch wohin führt das? Übernimmt die Künstliche Intelligenz in immer mehr Geschäftsbereichen immer wichtigere Aufgaben und macht den studierten Mitarbeiter auf lange Sicht ersetzbar?
Zum Anfang
0:00
/
0:00
Video jetzt starten
Zum Anfang
Dirk Elsner arbeitet im Innovation Lab der DZ Bank in Frankfurt am Main. Hier sitzen Startups neben Entwicklern der Bank. Sie arbeiten an Techniken der Zukunft. Man hat den Eindruck, hier sollen unbedingt Neuerungen entstehen. Die Mitarbeiterinnen und Mitarbeiter wirken motiviert und zuversichtlich, dass ihr Innovation Lab immer wichtiger wird. Doch geht es bei all dem wirklich um den Mehrwert für den einzelnen Kunden oder wird die Künstliche Intelligenz zum künftigen Kündigungsgrund aufgebaut? Als Senior Manager Digitalisierung unterstützt Elsner die Entwicklung von neuen technischen Ideen für die Bank. Für ihn gibt es keinen Grund zur Sorge: „Künstliche Intelligenz arbeitet nur in ganz spezifischen Bereichen und sie ist nur so schlau, wie die Daten, mit denen wir sie füttern“, erklärt er. Doch sein Team würde die hohen Erwartungen spüren, wenn es um Hype-Themen wie Blockchain oder Künstliche Intelligenz gehe. „Für mich steht immer das Problem des Kunden im Vordergrund. Das zu lösen, ist unsere Aufgabe.“ Welche Technologie man letztlich dazu verwende, sei für ihn zweitrangig – es gehe um Problemlösungen.

Elsner nimmt den Arbeitnehmervertretern vorbeugend schon mal Wind aus den Segeln: „Wir befinden uns in sehr heraus-fordernden Zeiten, die viel technisches Potenzial bieten. Aber bevor der menschliche Bankberater überflüssig ist, wird es noch eine Ewigkeit dauern.“ Er sieht auch nicht die Jobs der Berater in Call Centern bedroht. Vielmehr könnte zum Beispiel technische Emotions-Erkennung ebendiese Berater unterstützen. So würden Beratungsgespräche am Telefon durch Spracherkennung, die Emotionen und nicht nur Worte versteht, noch präziser auf die Situation des Kunden angepasst werden. Inwiefern die Technik Emotionen besser erkennen soll als der Berater am Telefon, lässt Elsner offen.
Zum Anfang
Unsere Welt verlagert sich immer weiter ins Internet. Unsere Kommunikation wird täglich digitalisierter. Doch oft kann schon der eigene Mitarbeiter, der einen verdächtigen E-Mail-Anhang öffnet oder sich leichtsinnig mit seinem Firmen-Tablet im WLAN eines öffentlichen Cafés einloggt, zur großen Schwachstelle werden. Es beginnt mit dem Sensibilisieren des Personals. Bei allem, was danach folgt, hilft die Künstliche Intelligenz gerne verlässlich weiter.
Zum Anfang

KI & Identifikation

Ein Kunde der R+V Versicherung will auf wichtige Vertrags-unterlagen zugreifen. Dafür nutzt er das Kundenportal „Meine R+V“ und muss zunächst seine Identität bestätigen: per Selfie Video in einer App. Nach einer kurzen Videoanweisung über die allgemeine Funktion des Verfahrens, prüft die App, welche Ausweisart vorliegt. In Deutschland gibt es beispielweise die neuen und alten Personalausweise und Reisepässe. Und das geht so: Der Kunde nimmt ein Selfie Video auf, in dem er sein Gesicht mittig platziert. Daraufhin tauchen auf dem Bildschirm zwei Wörter auf, die er während der Aufnahme nacheinander ausspricht: „Telefon“ und „Kaffeetasse“. Zuletzt zeichnet er die Vorder- und Rückseite des Ausweises auf. Wichtig hierbei ist, dass er den Ausweis während der Aufnahme hin und her schwenkt, sodass die einzelnen Hologramme auf dem Aus-weisdokument ausgewertet werden können. Nun verarbeitet die App im Hintergrund die gewonnenen Daten und bestätigt innerhalb weniger Sekunden die Identität. Der gesamte Prozess nimmt rund zwei Minuten in Anspruch. Das gewährleistet hohe Nutzerakzeptanz. Das Besondere: Das komplette Verfahren steuert kein Mensch, sondern eine künstliche Intelligenz.
Zum Anfang
Die R+V Versicherung ist das erste Unternehmen, dass so ein Identifikationsverfahren seit Oktober 2018 anbietet. Von den rund neun Millionen Kunden nutzen ca. 40 Prozent das Verfahren bereits. Genauso wie Thorsten Scholl berichten auch Sie von positiven Ergebnissen.

Die Technologie ist allerdings nicht von der R+V Versicherung programmiert worden. Arndts Kollegen aus der Abteilung „Digitale Transformation“ wurden auf dem InsurLab in Köln auf das Verfahren aufmerksam. Das InsurLab ist eine Veran-staltung, auf der Start-Ups die Möglichkeit bekommen, digitale Produkte für die Versicherungswirtschaft zu entwickeln und vorzustellen. Das Start-Up „Nect“ aus Hamburg ist eines dieser Unternehmen. Benny Bennet Jürgens, der Gründer des Start-Ups, kennt das Problem bisheriger Identifikationsverfahren:
Zum Anfang
0:00
/
0:00
Video jetzt starten