Wie künstliche Intelligenz Webdesign beeinflusst

Da Technologien für künstliche Intelligenz und maschinelles Lernen immer besser und gängiger werden, setzen immer mehr Webentwickler sie ein. Pixel Hop, eine britische Agentur für digitales Design mit Sitz in Brighton, hat vor Kurzem ein cooles Beispiel für künstliche Intelligenz (KI) vorgestellt, das die von Google verwaltete Bibliothek TensorFlow.JS zur Erkennung von Posen nutzt. Das Projekt beinhaltete ein wenig Halloween-Laune und nutzte im Wesentlichen die Erkennung von Gesichtsmerkmalen, um Besucher mit Kameras in Skelette zu verwandeln.

Nach Angaben des Entwicklers umfasste das Projekt die WebGL-Backend-Bibliotheken von TensorFlow, eine API für Videoaufnahmen, eine weitere API für Audio und eine weitere für das Teilen von Reaktionen auf Social-Media-Apps. Das Projekt läuft erstaunlich reibungslos, wenn man bedenkt, wie viele Serveraufrufe und Vue-Bibliotheken abgefragt werden, aber es ist trotzdem ziemlich ordentlich.

Wie Sie sich vorstellen können, ist die Posenerkennung keine einfache ML-Aufgabe. Denken Sie an all die möglichen Variationen der Posen, die Menschen in jedem Moment einnehmen. Die Google-Entwickler des TensorFlow-Projekts haben Computer Vision eingesetzt, um diese Schwierigkeiten zu überwinden. Anhand des bereits erwähnten Halloween-Skelett-Projekts können Sie sehen, dass sie immer besser werden, aber wir haben noch einige Jahre Forschung und Entwicklung für diese spezielle ML-Aufgabe vor uns.

Viele KI-Forscher sind seit langem der Meinung, dass eine Kombination aus ausgefeilter Deep-Learning-Technologie und großen Trainingsdaten einen großen Fortschritt bei der Posenschätzung bringen kann, aber das ist nicht wirklich geschehen. Das berühmteste Beispiel ist eine Veröffentlichung von Google aus dem letzten Jahr, in der behauptet wurde, dass das DeepFace-Modell – im Wesentlichen ein künstlich intelligenter Bildklassifikator – in der Lage sei, ein neues Gesicht innerhalb einer einzigen Sekunde zu erkennen, und zwar anhand eines Datensatzes von 10 Millionen Gesichtsbildern. Wenn DeepFace jedoch nur auf einen zufälligen Bildausschnitt gerichtet wird, ist die Leistung bei weitem nicht so gut – die Genauigkeit von DeepFace liegt bei einem durchschnittlichen Bild zwischen 85 und 90 Prozent.

Microsoft versucht zu beweisen, dass die Schätzung der Körperhaltung genauso genau sein kann wie die Objekterkennung. Der Tech-Gigant nutzt sein fortschrittliches neuronales Netzwerk, das für die Objekterkennung entwickelt wurde, um es auf die Erkennung von Posen und Gesichtern zu übertragen. In naher Zukunft werden wir vielleicht mehr Posenerkennungsroutinen in digitale Benutzeroberflächen integriert sehen.

Interessiert an einer neuen Website? Unser Team berät dich gerne, vor Ort und gerne auch digital! Bis dahin kannst du dir gerne auf der Seite Webdesign oder in unserem Portfolio einen Eindruck von unserer Arbeit machen.

    Back to top: