Automatisierung durch computerbasiertes Sehen – Computer Vision

Computer Vision

In der Vergangenheit und auch heute noch müssen Mitarbeiter etwa die Daten aus Rechnungen und Lieferscheinen händisch in die EDV-Systeme ihrer Unternehmen übertragen. Dabei können Computersysteme dank Computer Vision heutzutage Belege größtenteils selbstständig einlesen, die relevanten Informationen übernehmen und in der Folge weiterverarbeiten.

Genauso ist es technisch möglich, dass Ihr Gesicht beim Betreten eines Geschäftes analysiert und erkannt wird. Dadurch können Unternehmen beispielsweise Personen identifizieren, Unbefugten automatisch den Zutritt verwehren, Personenkontrollen beschleunigen, Fehler reduzieren und ihr Personal gezielter an anderer Stelle einsetzen.

Sogar Ärzte greifen heutzutage auf moderne Computertechnologie zurück, so z.B. bei der Auswertung von MRT-Aufnahmen. Computer können u.a. bei der Tumordiagnose helfen, indem sie Art, Ausprägung und Position von Tumoren feststellen.

Um solche Fälle geht es im Bereich des computerbasierten Sehens (oder kurz: Computer Sehen). In der Softwaretechnologie spricht man von Computer Vision. Diese Disziplin befasst sich mit der Art und Weise, wie Computer digitale Bilder und Videos sehen und verstehen. In der Folge erhalten Sie einen Überblick über die Einsatzmöglichkeiten dieser neuen Technologie in der Unternehmenspraxis.

Computer Vision – eine kurze Erläuterung

Computer Vision umfasst alle Aufgaben, die biologische Sehsysteme ausführen. Dies beinhaltet auch das „Sehen“ oder „Wahrnehmen“ eines visuellen Reizes, das „Verstehen“ des Gesehenen und das Extrahieren komplexer Informationen in eine Form, die wir in anderen Prozessen verwenden können. Dieses interdisziplinäre Gebiet simuliert und automatisiert diese Elemente menschlicher Sehsysteme mit Hilfe von Sensoren, Computern und Algorithmen des maschinellen Lernens. Computer Vision ist demnach die Theorie, auf deren Basis Systeme künstlicher Intelligenz fähig sind, ihre Umgebung zu sehen und zu verstehen.

Strategie zu künstlicher Intelligenz und Bildverarbeitung für Unternehmen

Wer eine Strategie für künstliche Intelligenz besitzt, die sich von den Gesamtzielen des Unternehmens ableitet und genau auf diese ausgerichtet ist, hat einen Wettbewerbsvorteil. Neben einem Überblick zu den Rahmenbedingungen für Digitalisierung und künstliche Intelligenz in Bezug auf Bildverarbeitungsprozesse erfahren Sie in der Folge, worauf es bei einer entsprechenden Strategie für Mittelständler und große Unternehmen ankommt.

Mit Algorithmen Bilder erkennen: Computer Vision in der Praxis

In vielen Prozessen verlassen sich Unternehmen auch heute noch auf das menschliche Auge und die menschliche Kognition, um Objekte und Daten zu erkennen und zu analysieren. So überprüfen etwa Mitarbeitende die Produkte am Ende eines Fertigungsprozesses meist aufwendig manuell. Darüber hinaus werden Informationen aus Papierrechnungen oft per Hand in IT-Systeme übertragen. Diese händischen Vorgänge sind fehleranfällig und führen zu hohen internen und externen Kosten, wenn dadurch Reklamationen oder Retouren entstehen oder Unternehmen ihre Produktion unterbrechen müssen.

Mittlerweile sind Algorithmen, die Bedeutung aus Bildern gewinnen können, weiter. Sie können traditionelle Methoden weit übertreffen und auch auf sich kontinuierlich verändernde Produktspezifikationen reagieren. Dadurch können Computer und Algorithmen mehr und mehr Prozesse unterstützen oder übernehmen, die vorher Menschen manuell erledigen mussten. Künstliche Intelligenz kann Mitarbeitende entlasten, sodass sie mehr Zeit für andere Aufgaben zur Verfügung haben. Solche Algorithmen sind unter dem Begriff Computer Vision bekannt.

 

Balkendiagramm

Quelle: McKinsey & Co.

Dass diese Tendenzen die Geschäftswelt insgesamt einschneidend verändern werden, ist den meisten Entscheidern in Unternehmen völlig bewusst. Und dennoch herrscht große Unsicherheit über den konkreten Einsatz solcher Verfahren. Das betrifft sowohl Pilotprojekte als auch die entscheidenden Stellen des operativen Geschäfts.

Künstliche Intelligenz hat hier häufig den Ruf als Wunderwaffe. Dennoch ist es unverzichtbar, eine genaue Analyse der Prozesse durchzuführen und die Strategie zu planen, um das volle Potenzial auszuschöpfen. Solche Lösungen zu etablieren ist zwar teuer, frühzeitige Investitionen zahlen sich jedoch aus.

Mehr Bilddaten und Verarbeitungskapazitäten führen zu einer breiteren Anwendung

Der Boom von Anwendungen im Bereich Computer Vision ist geprägt von kontinuierlichen, technologischen Durchbrüchen, die auf vier Säulen basieren:

  1. Es gibt günstigere und leistungsfähigere Kameras, Speicher- und Computergeräte, allen voran Smartphones.
  2. Wir haben heute schnellere Datenkommunikationstechnologien wie 4G und 5G sowie Cloud Computing. Dadurch ist das Verarbeiten und Speichern der Daten günstiger und leichter zugänglich.
  3. Es gibt mehr Bilddaten und der Zugang zu ihnen ist deutlich leichter. Das ist besonders auf Plattformen wie Instagram, Snapchat und YouTube zurückzuführen. Auch die Tatsache, dass Bildmaterial im Rahmen des Internet der Dinge (Internet of Things) besser auszuwerten ist, spielt hier eine Rolle.
  4. Fortgeschrittene Datenverarbeitungswerkzeuge sind leichter zugänglich. Das betrifft besonders Softwarebibliotheken, die Maschinelles Lernen (Machine Learning) für Bilddaten verbessern, beschleunigen und vereinfachen.

Daten sind also allgegenwärtig verfügbar und Speicher ist günstig. Mittels Open-Source-Bibliotheken und großen Communities können so mehr Unternehmen Computer Vision zur Lösung von Problemen aus der realen Welt einsetzen.

Was müssen Entscheider beachten, um durch Computer Vision Wettbewerbsvorteile zu realisieren?

Identifikation von Anwendungsfällen

Wie zu Beginn beschrieben, ist jede Aufgabe, bei der ein Mensch Daten überträgt, Objekte einordnet, Produkte analysiert oder visuell überprüft, ein typischer Anwendungsfall für Computer Vision. Zu den typischen Anwendungsfeldern gehören neben Gesichtserkennung, Arztdiagnosen und dem Verarbeiten von Dokumenten beispielsweise auch digitales Marketing oder die Qualitätssicherung. Ein Einzelhändler kann mittels Gesichtserkennung Bezahlvorgänge automatisieren oder er kann Obst durch eine automatisierte Objekterkennung laufen lassen, um es z.B. für eine Lebensmittellieferung korrekt und ohne menschliches Zutun zu sortieren.

Ein Algorithmus erkennt Tumore auf MRT-Scans oder kann aus Lieferscheinen und Rechnungen automatisch Informationen digitalisieren. Die Anwendungsbereiche von Computer Vision sind also so unterschiedlich, dass es wohl kaum ein Unternehmen gibt, das nicht von ihr profitieren würde. Durch die Integration der Disziplin in die IT-Umgebung können Unternehmen durch Effizienzsteigerungen, Prozessautomatisierungen und Kosteneinsparungen enorme Mehrwerte erzielen.

Synergien schaffen

Ein einmalig entwickelter Computer-Vision-Algorithmus verbessert meist einen bestehenden Prozess oder löst ein bestimmtes Problem. Derselbe oder ein ähnlicher Algorithmus kann aber auch bei anderen Problemstellungen im Unternehmen zum Einsatz kommen. Wenn in einem Bereich ein System etabliert wird, das Informationen aus Eingangsrechnungen extrahiert und überprüft, kann man dieses System auch an anderen Stellen des Unternehmens mit leichten Modifikationen verwenden.

Dies ist beispielsweise der Fall bei automatisierten Buchungen durch eine Lieferscheinkontrolle oder bei Zutatenerkennung auf Lebensmittelprodukten, also bei Verpackungsdaten. Hierbei geht es meist um automatische Texterkennung. Dabei werden die relevanten Inhalte in eine einfache Sprache übersetzt und benutzergerecht vorgelesen. Bei allen Produkten bzw. Dokumenten mit ausreichend standardisierten Textblöcken kann eine solche Technologie eingesetzt werden. Sogar der Endnutzer kann sie auf seinem Handy nutzen.

Das Ziel sollte sein, ein stimmiges Portfolio aus wiederverwertbaren Computer-Vision-Komponenten zu erarbeiten. Nicht immer gelingt es direkt, ein fertiges System eins-zu-eins auf ein neues Problem anzuwenden. Durch ein kluges Wiederverwenden von Ressourcen kann man jedoch schnell Wert schaffen. Außerdem führt ein Fokus auf kleinere Projekte zu schnellen Lernerfolgen.

Der richtige Umgang mit Daten

Die Datenlage entscheidet oft über Erfolg oder Misserfolg eines Computer-Vision-Projektes. Neben der Qualität ist vor allem auch die Quantität äußerst herausfordernd: Für manche Szenarien sind KI-Lösungen gefragt, für die Trainingsdaten notwendig sind. Über solche verfügen Unternehmen aber oft gar nicht in dem benötigten Umfang. Früher war das durchaus ein unüberwindbares Hindernis. Mittlerweile gibt es jedoch Strategien (bspw. Transfer Learning und Semi-Supervised Learning), um damit umgehen zu können. So lassen sich auch aus geringen Datenmengen oder bei Datenschutzbedenken Potenziale ausschöpfen.

Die nächstgrößte Hürde ist meist ein effizienter Umgang mit diesen Daten. Bilddaten sind groß und komplex, weswegen sich Organisationen frühzeitig durch Investitionen für die Speicherung und Verarbeitung in die Lage versetzen sollten, solche großen Mengen an Daten zu beherrschen. Eine schlüssige Datenverwaltungsstrategie ist zwingend notwendig und erzeugt langfristige Wettbewerbsvorteile.

Die Mitarbeitenden stärken

Der Einsatz fortschrittlichster Computer-Vision-Algorithmen hat auch Auswirkungen auf die Beschäftigten. Neben den allgemeinen Herausforderungen von Arbeit 4.0 sind hier zwei Aspekte besonders bedeutend:

  • Erstens müssen Unternehmen das richtige Know-how und die passenden Fertigkeiten im Aufsetzen von und im Umgang mit Computer-Vision-Lösungen aufbauen. Außerdem sind fähige Mitarbeitende für die Datenanalyse bekanntlich nicht gerade leicht zu finden.
  • Zweitens sind gerade Automatisierungsprozesse immer auch Changeprozesse, die Firmen erfolgreich gestalten müssen. Digitale Transformation löst häufig Ängste bei der Belegschaft aus, die Führungskräfte bei allen Planungen angemessen berücksichtigen müssen. Gerade das beschriebene Gebiet bietet hierbei allerdings das Potenzial, unliebsame und wiederkehrende Aufgaben abzunehmen. Gerade auch Vorgänge mit einem hohen Konzentrationserfordernis entfallen. Dazu gehören die manuelle Inspektion von Produkten und das händische Übertragen von Daten aus Dokumenten. Der Aufgabenfokus verschiebt sich zu Schnittstellentätigkeiten, die Menschen arbeiten “mit der Künstlichen Intelligenz”. Diesen Umstand müssen Unternehmen in ihrer Personalstrategie berücksichtigen.

Gesamtprozess betrachten

Im Idealfall lässt sich ein Prozess von Anfang bis zum Ende digitalisieren und automatisieren. Ganze Prozessketten (bspw. von der Bestellung von Vorprodukten über die manuelle Prüfung bis hin zum Einpflegen ins System) vollständig zu automatisieren ist jedoch ein zeitintensives und komplexes Unterfangen. Bereichsübergreifende, vollautomatisierte Prozessketten lassen sich deshalb erst mittel- bis langfristig bewerkstelligen. Teilautomatische Übergangsphasen sollten deswegen in der Planung berücksichtigt werden. Der Erfolg von Computer-Vision-Lösungen hängt daher kurz- bis mittelfristig von der Zuarbeit der Mitarbeiterinnen und Mitarbeiter ab. Daher müssen Unternehmen den entstehenden Schnittstellen mit besonderer Sorgfalt begegnen.

Dieser Beitrag hat Ihnen gefallen? Informieren Sie sich auch über unsere Tagungen zu den folgenden Themen:

Timothy Krechel

Timothy Krechel

Logo tarent

Algorithmen – Sie sind in aller Munde, aber was genau ist das eigentlich

Künstliche Intelligenz

Google, Facebook oder das Navigationssystem im Auto, all diese Dinge arbeiten mit Algorithmen. Zukünftig werden lernfähige Computersysteme eine immer größere Rolle in unserem Alltag, der Wirtschaft und auch der Gesellschaft, spielen. Denn die Fähigkeiten der Maschinenhirne wachsen dank neuer Software-Architekturen, wie den neuronalen Netzen und dem Fortschritt in der Hardware Entwicklung, zusehends.

Ob das Internet, Social Media Plattformen oder intelligente Sprachassistenz Software, alles beruht auf Algorithmen. Meistens ist es uns noch bewusst, dass im Hintergrund etwas abläuft. Um was es sich dabei aber genau handelt und wie die Prozesse funktionieren, wissen nur die wenigsten von uns. Im folgenden Artikel soll der Begriff Algorithmus genauer erläutert werden, um für mehr Klarheit über dessen Geschichte zu sorgen.

Woher stammt der Begriff Algorithmus?

Das Wort Algorithmus ist eine latinisierte Abwandlung des Namens des persischen Astronomen und Rechenmeisters Abu Dschaʿfar Muhammad ibn Musa al-Chwārizmī (latinisiert: Algorismi). Dieser hat im 9. Jahrhundert n. Chr. gelebt. In seinem Werk „Über die indischen Ziffern“ stellte al-Chwārizmī  die Arbeit mit Dezimalzahlen vor und führte die Ziffer Null aus dem indischen Zahlensystem in das arabische ein. Eine Ausgabe dieser Schrift auf Latein lautete somit: „Algoritmi de numero Indorum“ („Al-Chwarizmi über die indischen Zahlen“). Daraus entstand später die Bezeichnung „Algorithmus“, mit der eigentlich definierte Rechenverfahren gemeint sind.

Was ist ein Algorithmus?

Ganz allgemein formuliert ist ein Algorithmus eine Reihe von Anweisungen, die Schritt für Schritt ausgeführt werden, um eine Aufgabe oder ein Problem zu lösen. Ein Algorithmus löst ein mathematisches Problem. Er beschreibt etwa für den Computer korrekt interpretierbare Lösungswege, die für jede durch das mathematische Problem definierte, mögliche Eingabe, die korrekte Lösung in endlicher Zeit berechnet. Warum in endlicher Zeit? Weil Lösungswege denkbar sind, bei denen man unendlich lange auf die Lösung warten muss.

Wo werden Algorithmen eingesetzt?

Mit fortschreitender Digitalisierung vieler Lebensbereiche, wie größeren Datensammlungen, billigerem Speicherplatz und stärkerer Rechenleistung, werden immer mehr Entscheidungen automatisiert. Schon jetzt werden lernfähige Algorithmen in vielen Bereichen unseres Alltags eingesetzt. So verstehen digitale Assistenz-Systeme, wie Siri oder Alexa, dank künstlicher Intelligenz unsere Sprachbefehle und Fragen. Im Internet helfen Bots dabei Internetseiten zu pflegen und zu überwachen, dabei haben diese fast schon menschliche Eigenheiten. Sogar beim Aufspüren von Fake-News und manipulierten Bildern können KI-Systeme inzwischen assistieren.

Möglich wird all dies dank der Fähigkeit der KI-Systeme in kurzer Zeit enorme Datenmengen auszuwerten und dabei Muster und Zusammenhänge zu erkennen. So lernt der Algorithmus beispielsweise anhand unzähliger Fotos von Haustieren mit entsprechender Benennung, wie Hunde oder Katzen aussehen. Nach einer Zeit des Trainings kann das System dann auch ganz neue Fotos der richtigen Tierart zuordnen. Das System hat selbstständig die relevanten Unterscheidungsmerkmale gelernt. Anstelle von Bildern können KI-Systeme auch Texte als Trainingsgrundlage verwenden. Sie werten aus, in welchem Kontext ein Wort steht und lernen somit dessen semantische Bedeutung und auch dessen Verknüpfungen mit ähnlichen Wörtern oder Synonymen. Diese Bedeutungsbeziehungen übersetzen die Programme in mathematische Ausdrücke und lernen so selbst komplexe semantische Zusammenhänge.

Durch diese Fähigkeit kann eine Form von künstlicher Intelligenz beispielweise medizinische Daten und Krankenakten auswerten und davon die Merkmale bestimmter Krankheitsbilder ableiten. Auf Basis dieser Erkenntnisse lassen sich die KI-Systeme als Diagnosehelfer einsetzen. Inzwischen erkennen solche Diagnose-Systeme bereits verschiedene Formen von Krebs, aber auch Vorzeichen von Alzheimer.

Menschen und Algorithmen

In einer EU-weiten Befragung der Bertelsmann-Stiftung zum Thema „Was Europa über Algorithmen weiß und denkt“ sprach sich eine große Mehrheit der Bevölkerung für mehr Klarheit und Kontrolle beim Einsatz von Algorithmen aus. Dreiviertel der Befragten sprachen sich dafür aus, dass computerbasierte Entscheidungen nachvollziehbarer gestaltet sein sollten und ein Recht auf Überprüfung durch Menschen verankert werden sollte. 64 Prozent fühlen sich demnach unwohl, wenn Computer Entscheidungen ohne menschliche Beteiligung treffen. Die Akzeptanz dafür schwankt jedoch, je nach Einsatzgebiet. Zugleich zeigte die Umfrage, dass fast die Hälfte der Europäer und Europäerinnen nicht wissen was Algorithmen sind. 48 Prozent haben keinerlei Kenntnisse darüber. Nur acht Prozent gaben an, viel darüber zu wissen. Genauere Vorstellungen, wo derartige Entscheidungsprozesse eingesetzt werden, haben demnach nur wenige Menschen. Etwa ein Fünftel der Befragten war gar nicht über mögliche Anwendungsfelder von Algorithmen informiert, so die Ergebnisse der Umfrage.

Sie wollen mehr über dieses und andere spannende Themen erfahren? Dann melden Sie sich einfach zu unserem Newsletter an oder besuchen Sie eine unserer Tagungen.

Dieser Beitrag hat Ihnen gefallen? Informieren Sie sich auch über unsere Tagungen zu den folgenden Themen: