Wir sind Weltmeister!

In einem atemberaubenden Finale erkämpften sich die Roboter-Fußballer der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) am 21. Juni 2018 erstmals den Weltmeistertitel bei der RoboCup-WM.

Das Nao-Team HTWK, amtierender Deutsche Meister, gewann in Montreal (Kanada) mit einem 1:0 gegen seinen langjährigen „Angstgegner“ B-Human, dem Team der Universität Bremen und des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Das Siegestor fiel erst in der zweiten Halbzeit – ein Spiel dauert zwei Mal zehn Minuten – und kurz vor Schluss wäre B-Human fast noch der Ausgleich gelungen, doch eine Glanzparade des Leipziger Torwarts konnte dies in letzter Sekunde verhindern.

Der frischgebackene Weltmeister: Das Nao-Team HTWK nach seinem Sieg in Montreal.
Foto: Nao-Team HTWK.
Die Freude war entsprechend groß: „Nach neun Jahren in der Standard Platform League sind wir natürlich extrem glücklich, auf dem obersten Treppchen zu stehen. Das Finale war sehr spannend und es war interessant, die zwei komplett verschiedenen Taktiken zu sehen: Unser Team dribbelt den Ball, B-Human hingegen ist für seine langen, präzisen Schüsse bekannt. Diese Schüsse konnten unsere Verteidiger und vor allem unser Torwart jedoch mit Bravour abfangen“, fasst Teamchef Rico Tilgner das Endspiel zusammen.

In einem spannenden Finale in Montréal (Kanada) erlangte der sechsfache Weltmeister und Titelverteidiger den 2. Platz gegen seinen „Dauerrivalen“ HTWK aus Leipzig. Beide Teams hatten gute Torchancen: das Leipziger Nao-Team HTWK mit seinem unbestechlichen Dribbeln und das Team B-Human der Universität Bremen und des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) mit seinen starken und präzisen Schüssen. „Durch die gute Koordination unserer Abwehrspieler konnten wir die meisten Angriffe abwehren“, sagt Dr. Tim Laue, der das Team seit mehreren Jahren betreut. Auf der anderen Seite hat der Leipziger Torhüter mehrfach durch eine Glanzparade ein Tor durch B-Human verhindert. Lediglich einmal hatten die Leipziger dann doch Erfolg.

B-Human setzt Deep Learning-Methoden erstmals bei einer Weltmeisterschaft ein

Glücklicher Zweiter: Am Ende musste sich B-Human nur dem Nao-Team HTWK aus Leipzig geschlagen geben.
Universität Bremen/DFKI GmbH
Das Team B-Human setzt sich derzeit aus mehr als 25 Studierenden zusammen. Davon sind 15 mit nach Kanada gereist. Begleitet wurden sie von den Wissenschaftlern Dr. Thomas Röfer vom DFKI-Forschungsbereich Cyber-Physical Systems, der von Professor Rolf Drechsler geleitet wird, und Dr. Tim Laue aus der Arbeitsgruppe Multisensorische Interaktive Systeme der Universität Bremen. Inhaltlich hat sich das Team in diesem Jahr neu mit dem Thema Deep Learning beschäftigt: dem Trainieren und Nutzen tiefer neuronaler Netze. Diese werden unter anderem dazu verwendet, den Ball zu erkennen. Bereits bei den RoboCup German Open im Frühjahr kamen diese neuen Methoden zum Einsatz. B-Human konnte viele Daten aufzeichnen und wichtige Erkenntnisse gewinnen, um verschiedene Aspekte des Systems zu verbessern, damit die NAOs immer gut am Ball bleiben. Hauptsponsor von B-Human ist die Bremer Firma CONTACT Software, der führende Anbieter von Lösungen für den Produktprozess und die digitale Transformation.

HTWK-Fußballroboter des „Nao-Team HTWK“ erstmals Weltmeister im RoboCup

Klaus Bastian, Professor für Systemprogrammierung an der HTWK Leipzig und Betreuer des Nao-Teams, sagt: „In diesem Turnier und schon im April bei der GermanOpen war deutlich zu sehen, dass die Leipziger Informatiker in verschiedenen Bereichen Fortschritte gemacht haben. Insbesondere die neue Walking-Engine – die Steuerung der Schritte – in Kombination mit dem verbesserten Dribbeln hat unsere Spielstärke deutlich erhöht. Insofern war der Sieg bei den deutschen Meisterschaften in Magdeburg schon ein Indikator, der auf mehr hoffen ließ. Wie man aber am Verlauf des WM-Finales sehen konnte, ist Fußball auch von etwas Glück abhängig. Insgesamt scheint das Niveau in der Standard-Plattform-Liga deutlich ausgeglichener zu sein als in früheren Jahren, was für die Zukunft noch interessante Turniere erhoffen lässt.“

Der Weltmeistertitel ist die Krönung der jahrelangen erfolgreichen Entwicklung des Nao-Teams HTWK. Zuletzt hatte die Mannschaft den deutschen Meistertitel der RoboCup German Open Ende April 2018 in Magdeburg geholt, nach einigen Jahren als Vize.

Hintergrund:

Beim RoboCup treten Hochschulteams in verschiedenen Ligen gegeneinander an. Das Nao-Team HTWK startet in der „Standard-Plattform-Liga“, in der alle Teams die gleichen Modelle nutzen und wo die Herausforderung daher in der Programmierung besteht. Deswegen wird der Nao-Fußball zuweilen auch als „Kampf der Algorithmen“ bezeichnet. Das Nao-Team HTWK besteht aus rund 15 Mitgliedern, die an der HTWK Leipzig Informatik studieren oder als Absolventen bereits im Berufsleben stehen. Bei den vergangenen Weltmeisterschaften errang die Mannschaft jeweils zweite bzw. dritte Plätze in ihrer Liga – mit dem Titel setzt das Team seiner Siegesserie die Krone auf. Übrigens: Ziel des RoboCups ist es, dass im Jahr 2050 Fußballroboter den amtierenden Weltmeister aus Fleisch und Blut besiegen.

Neue Regeln mit Freistößen und Torwartabstößen

Auch in diesem Jahr gab es ein paar Neuerungen in den Spielregeln. Die meisten kamen bereits bei den RoboCup German Open im vergangenen April zum Einsatz, darunter die Einführung von Freistößen und Torwartabstößen, was die Anforderungen an das Teamspiel deutlich erhöhte. Gleichzeitig wurde die nutzbare Bandbreite der WLAN-Kommunikation zwischen den Robotern um fast zwei Drittel reduziert, wodurch Teamabsprachen nun wesentlich kompakter ausfallen müssen. Auch wurden Fouls stärker bestraft, da sich die Dauer von Zeitstrafen mit jeder weiteren empfindlich erhöhte.

Zusatzwettbewerbe wie Elfmeterschießen und „Mixed Team Competition“

Wie bereits im vergangenen Jahr in Japan gab es auch in Kanada zusätzliche Wettbewerbe, wie das Elfmeterschießen in der „Technical Challenge“ und die „Mixed Team Competition“. Beide Turniere gewann das Team B-Human. In der „Mixed Team Competition“ war es zusammen mit dem Team rUNSWift aus Sydney angetreten. Beide Teams stellten jeweils drei Spieler für die gemeinsame Mannschaft namens „B-Swift“.

Schneller als die Polizei

Kein Witz, manchmal aber nur manchmal ist die Telekom schneller als die Polizei. Am 09. Februar hatten mehrere Täter versucht, die Kabel einer Alarmanlage einer Filiale der Berliner Sparkasse im Bezirk Schöneberg abzuklemmen. Dies löste Alarm bei der Deutschen Telekom aus.

Den Grund fanden die Einbrecher heraus, als die vermeintlich abgeschaltete Alarmanlage beim Betreten des Geschäfts nach um 2.30 hochging. Falsches Kabel, Pech gehabt.

Die nächste Polizeiwache ist 200 Meter entfernt. Aber als die Polizei vor Ort eintraf, war schon jemand anders da. Techniker der Telekom begannen bereits den Schaden zu untersuchen.

Trotzdem konnte die Telekom ihrem Ruf gerecht werden. Es dauerte dann doch zwei Tage, bis die Kunden wieder Netz hatten.

„Au“ killt Apple

74 Millionen Menschen in Indien sprechen Telugu. Fast so viele wie Deutschland Einwohner hat. Nun sind US-Handys in Indien nicht so der Renner, den Markt beherrschen Huawei und Xioame. Aber Apple -User dürften sich ganz besonders freuen:

Dieses Symbol, es entspricht in etwa dem deutschen „au“ oder dem englischen „aw“ killt Apple-Geräte.  Die italienische Seite mobileworld.it berichtete zuerst.

Foto: Kurmanatha Temple – Sreekurmam- Srikakulam -Andhrapradesh, విశ్వనాధ్.బి.కె., Attribution-Share Alike 4.0 International

 

Es betrifft iOS, watchOS und Desktop-Anwendungen.  Also die ganze Familie ist in Gefahr zu freezen, wenn Du das Zeichen in Anwendungen wie whatsapp eingibst.

Quantenbits per Licht übertragen

Der Quantencomputer rückt näher: Physiker aus Princeton, Konstanz und Maryland koppeln Quantenbits und Licht

Neue Forschungsergebnisse zeigen das Potenzial von Licht als Medium, um Informationen zwischen sogenannten Quantenbits (Grundrecheneinheit des Quantencomputers) zu übertragen. Physikern der Princeton University (USA), der Universität Konstanz und des Joint Quantum Institute (Maryland, USA) ist es gelungen, Quantenbits mit dem elektromagnetischen Feld von Licht zu koppeln. Das Verfahren ermöglicht nicht nur die Übertragung von Informationen zwischen Quantenbits, die nicht direkt nebeneinanderliegen, sondern könnte auch ein störungsfreieres Auslesen der hochempfindlichen Quantenzustände ermöglichen. Die Forschungsergebnisse sind im renommierten Wissenschaftsjournal Nature in der Ausgabe vom 14. Februar 2018 veröffentlicht.

Foto: Schemaansicht Kugelkoordinaten, Ichijiku, Attribution-Share Alike 3.0 Unported

Die Physiker erzeugten zunächst Quantenbits aus Silicium, indem sie einzelne Elektronen separierten und in Siliciumkammern – sogenannten „double quantum dots“ – einschlossen. Der Drehimpuls des Elektrons, der sogenannte Elektronenspin, dient dabei als Speichermedium der Quanteninformation. Mittels eines Magnetfeldes gelang es den Forschern daraufhin, die Quanteninformation des Elektronenspins auf Licht (Photonen) zu übertragen. Licht besteht aus oszillierenden elektrischen und magnetischen Feldern. Die Forscher koppelten erfolgreich das elektromagnetische Feld des Lichts mit dem Drehimpuls des Elektrons, wodurch das Elektron seine Quanteninformation an das Licht weitergibt.

Quanteninformationen per Licht auf andere Quantenbits übertragen

Dieser Forschungserfolg eröffnet die Möglichkeit, Quanteninformationen per Licht auf andere Quantenbits zu übertragen. Die Kopplung von Quantenbits, die nicht direkt benachbart sind und weiter als nur wenige Nanometer auseinanderliegen, war bis zuletzt eine der großen Herausforderungen der Quantencomputer-Entwicklung.

„Dieses Ergebnis gibt unserer Forschung eine ganz neue Richtung“, schildert Prof. Jason Petta, Ph.D., Professor für Physik an der Princeton University, und zieht einen Vergleich heran: „Wir verlassen damit eine zweidimensionale Landschaft, in der nur direkte Nachbarn zueinander in Kontakt stehen können, und betreten eine Welt, in der jeder mit jedem verbunden ist. Das gibt uns Flexibilität für die Anordnung der Bausteine des Quantencomputers.“

Der theoretische Rahmen des Forschungsprojektes wurde von Konstanzer Seite aus entwickelt, unter Federführung von Prof. Dr. Guido Burkard und Dr. Mónica Benito an der Professur für Theorie der kondensierten Materie und Quanteninformation der Universität Konstanz. „Das Ergebnis eröffnet uns den Weg, das Verfahren nun auch auf komplexere Systeme zu übertragen“, gibt Guido Burkard einen Ausblick und ergänzt: „Eine Stärke unseres siliciumbasierten Ansatzes ist, dass er den Standards der Halbleiterindustrie entspricht.“

Die Forscher nehmen an, dass ihre Methode ein weiteres Problem des Quantencomputers lösen könnte: Quantenbits sind hochempfindlich gegenüber Störquellen von außen, zum Beispiel durch Erschütterungen oder Hitze. Bereits das einfache Auslesen eines Quantenbits kann seinen Quantenzustand zerstören. Der neue Ansatz aus Princeton, Konstanz und Maryland könnte dieses Problem umgehen, da Licht verwendet wird, um die Quanteninformationen auszulesen. Anders als bisherige Ausleseverfahren verändert Licht nur minimal die Position und den Zustand des Elektrons, das die Quanteninformation trägt, und löscht sie dabei nicht.

Quantenbits mit Laserpulsen bei extrem tiefen Temperaturen kontrollieren

Quantencomputer, die bestimmte Probleme im Vergleich zu heutigen Rechnern um ein Vielfaches effizienter lösen können, stecken technisch noch in den Kinderschuhen. Die präzise Kontrolle ihrer Recheneinheiten, der Quantenbits (Qubits), ist außerordentlich herausfordernd, da diese in der Regel sehr kurzlebig sind. Dies gilt insbesondere für Quantenbits, welche in Festkörpern eingebettet sind. Physiker der Saar-Uni haben nun eine neue Methode entwickelt, um solche Qubits in Diamant zu kontrollieren und somit länger für Rechenoperationen nutzbar zu machen. Dafür müssen sie die Quantenbits nahe an den absoluten Temperatur-Nullpunkt herunterkühlen.

Ihre Ergebnisse haben die Wissenschaftler in der aktuellen Ausgabe des renommierten Fachmagazins Physical Review Letters publiziert (https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.120.053603).

Jonas Becker, Erstautor der Studie, mit der experimentellen Apparatur zur Kühlung der Quantenbits.
Foto: AG Becher, Saar-Uni.

Es erinnert an den Versuch, mit einem großen Tapetenpinsel und in Boxerhandschuhen die hauchfeinen Konturen der Mona Lisa zu restaurieren: Geht ein Pinselstrich nur ein wenig daneben, ist das Werk ruiniert. Was die Quantenphysiker mit Quantenkontrolle bezeichnen, ist ähnlich kompliziert wie diese – fiktive – kunsthistorische Jahrtausendaufgabe es wäre. Denn den Zustand eines Quantenbits (Qubit), der Recheneinheit eines Quantencomputers, ist extrem flüchtig und labil, so dass es höchst präziser Kunstgriffe bedarf, um diesen nützlichen Zustand möglichst lange zu erhalten.

Physiker der Universität des Saarlandes um die Professoren Christoph Becher und Pavel Bushev haben diesen Überlagerungszustand, in dem sich zum Beispiel ein Atom in zwei Zuständen gleichzeitig befindet, in Kooperation mit Kollegen aus Cambridge bei extrem tiefen Temperaturen von nur vierzig tausendstel Kelvin (vierzig tausendstel Grad über dem absoluten Temperaturnullpunkt) untersucht und mithilfe von Laserpulsen gezielt kontrolliert. Das Quantenbit ist in ihrem Fall ein so genanntes Silizium-Fehlstellen-Farbzentrum, ein gewollt eingebauter „Fehler“ in der atomaren Gitterstruktur eines künstlichen Diamanten, der aus Kohlenstoff besteht. Statt zweier Kohlenstoffatome befinden sich hier zwei Fehlstellen im Gitter, die ein Silizium-Atom in der Mitte einschließen. Die unterschiedlichen Zustände des Defekts können für die Quanteninformationsverarbeitung, also zum Beispiel zum Rechnen, genutzt werden.

Die Physiker mussten dabei aber ein Problem umgehen: Je höher die Temperatur ist, desto stärker werden die Atome des Gitters in Schwingung versetzt, da sie die Energie aus der Umgebung aufnehmen. Je wärmer es also ist, desto stärker ist dieser Effekt. Dabei reichen schon wenige Grad über dem Nullpunkt aus, um die Schwingungen so stark werden zu lassen, dass der angestrebte Überlagerungszustand verloren geht. Mit dem Herunterkühlen des künstlichen Diamanten auf wenige Tausendstel Grad über dem Nullpunkt geraten auch diese störenden Einflüsse in den Hintergrund, da bei solch tiefen Temperaturen die Kristallschwingungen praktisch vollständig ausgefroren sind. Die große Herausforderung hierbei besteht zum einen darin, die einzelnen Qubits mit dem Laser in einem stabilen Quantenzustand zu erzeugen und dort zu halten. Zum anderen darf natürlich nicht zu viel Wärme an den Diamant abgegeben werden, um die tiefen Temperaturen zu erhalten.

Neu, hochauflösend: konfokales Mikroskop

Zu diesem Zweck entwickelte das Team um Doktorand Jonas Becker, der nach seiner Promotion inzwischen an der Universität Oxford forscht, ein neues, hochauflösendes konfokales Mikroskop, welches die Quantenbits präzise darstellen kann und Kontrolle dieser Qubits bei Millikelvin-Temperaturen mittels Laserpulsen ermöglicht. Gegenüber anderen gängigen Kontrolltechniken, etwa mit Mikrowellen, bietet dieses Verfahren den großen Vorteil, dass der Wärmeeintrag durch einen gezielt fokussierten Laser ausschließlich direkt am Qubit erfolgt und zudem sehr gering ist, da bereits wenige Nanowatt an Laserleistung für eine vollständige Kontrolle ausreichend sind. Wie die Forscher im weiteren Verlauf der Experimente herausfinden konnten, verlängern sich die Kohärenzzeiten, in denen das Qubit stabil im Überlagerungszustand existiert, allerdings nur ein wenig.

Neben diesem unerwarteten Resultat – die Physiker hatten eigentlich mit einer deutlichen Verlängerung des Kohärenzzustandes gerechnet –

Die verwendete Kühlapparatur mit konfokalem Mikroskop.
Foto: AG Becher, Saar-Uni.

gewannen sie aber andere wertvolle Erkenntnisse. Sie konnten die Interaktion der Qubits mit ihrer Umgebung detailliert untersuchen und einen weiteren limitierenden Prozess finden, der die Quantenkontrolle stört. Denn in dem künstlich hergestellten Diamanten gibt es neben den „gewollten“ Verunreinigungen, den Silizium-Fehlstellen-Zentrum, an manchen Stellen auch unerwünschte Verunreinigungen, die bei der Herstellung des Diamanten entstehen. Pro einer Million Atome sind das nur 13 „ungewollte“ Verunreinigungen mit Stickstoff-Atomen. Aber schon diese geringe Anzahl an „falschen“ Atomen im Kristallgitter stört mit ihrem Magnetfeld den Überlagerungszustand der gewollten Silizium-Fehlstellen-Zentren. Dieser Effekt wäre den Forschern gar nicht aufgefallen, wenn sie das Experiment nicht so nahe am absoluten Nullpunkt gemacht hätten. Die Störung durch die bereits erwähnte Schwingung, die durch Wärmeeintrag ausgelöst wird, überlagert die Störung durch die Verunreinigungen deutlich.

Dieses Wissen kann nun dazu genutzt werden, neue, noch reinere Proben zu entwickeln, die die gewünschten Eigenschaften aufweisen. Zudem kann die entwickelte Mikroskopietechnik nun dazu genutzt werden, auch andere Kandidaten für Festkörper-Quantenbits bei Millikelvin-Temperaturen mithilfe von optischen Methoden detailliert zu untersuchen.

Dynamische Zertifikate machen Cloud-Anbieter sicherer

Die Menge der digitalen Daten, die Unternehmen produzieren und speichern, wächst. Die Cloud-Technologie bietet eine bequeme Lösung: IT-Dienstleister stellen Speicherplatz oder Software zur Verfügung, so dass Daten dezentral gespeichert werden. Doch wie können Unternehmen sicher sein, dass die Daten vor fremden Zugriffen geschützt sind und nicht gelöscht werden? Forscherinnen und Forscher der Technischen Universität München (TUM) haben sich mit dieser Frage beschäftigt und ein Modell entwickelt, mit dem Anbieter verlässlich überprüft und zertifiziert werden können.

Mit neuen dynamischen Zertifikaten wollen die Wissenschaftler des NGCert-Konsortiums Cloud-Anbieter sicherer machen. (Bild: H. Krcmar, C. Eckert, A. Roßnagel, A. Sunyaev, M. Wiesche)
Gerade für kleine und mittelständische Unternehmen ist es oft schwierig bei den vielen kleineren Cloud-Dienstleistern einen sicheren und zuverlässigen Anbieter zu finden. In Gesprächen mit etwa 100 IT-Spezialisten aus solchen Unternehmen haben Wissenschaftlerinnen und Wissenschaftler der TUM unter Leitung von Prof. Helmut Krcmar, Inhaber des Lehrstuhls für Wirtschaftsinformatik, eine Lösung für dieses Problem erarbeitet. Zusammen mit sechs weiteren Partnern entwickelten sie im Rahmen des Konsortiums „Next Generation Certification“ (NGCert) ein neues dynamisches Zertifizierungssystem für Cloud-Services.

Cloud-Zertifikate müssen flexibel sein

Es gibt zwar schon jetzt Qualitätssiegel, so genannte Zertifikate, welche die Sicherheit der gespeicherten Daten garantieren sollen. Sie werden unter anderem vom TÜV ausgestellt und prüfen bestimmte Anforderungen zum Beispiel gesetzliche Vorschriften, die ein Anbieter für seine Kunden erfüllen muss. Die Qualitätssiegel werden allerdings häufig für ein bis drei Jahre bewilligt – mit nur einmaliger Prüfung.

Das Hauptproblem, erklärt Helmut Krcmar, seien genau solche statischen Zertifikate. „Zertifikate verlieren sehr viel schneller ihre Aktualität als nach ein bis drei Jahren und damit auch ihre Sicherheit. Wir brauchen dynamische Systeme, die ständig über den Zeitraum ihrer Gültigkeit geprüft werden können. Wir haben jetzt erstmals ein Modell entwickelt, wie das organisatorisch und technisch möglich ist.“ Bei den befragten Unternehmen zeigte sich, dass die Einführung solcher dynamischer Qualitätssiegel das Vertrauen der Unternehmen in Clouds deutlich steigern kann und sie dann die Technik leichter einsetzen können.

Sichere Speicherung in Deutschland

Die Wissenschaftlerinnen und Wissenschaftler arbeiteten in Zusammenarbeit mit Firmen und Cloud-Services wichtige Kriterien heraus, die solche neuen dynamischen Zertifikate erfüllen müssen. Für Dreiviertel der befragten Firmen standen vor allem die Datensicherheit und der Datenschutz an oberster Stelle. Häufig werden vertrauliche Personaldaten in der Cloud gespeichert. Rechtlich behalten die Firmen die Verantwortung für ihre Daten und nicht der Cloud-Dienstleiser. Deshalb ist es wichtig, dass die Daten zuverlässig in Deutschland gespeichert werden, wo strenge Datenschutzgesetze gelten.

Diese Ansicht vertritt auch das Team von refixo. Für unsere refixo Repaircloud, eine PoS-Software für Werkstätten und Reparaturbetriebe, haben wir deutsche Server gebucht. Wesentliches Element des Tools ist eine Kundenverwaltung der Werkstätten. Und die muss aus Sicht aller Beteiligten, Kunden, Reparaturbetriebe, Cloudbetreiber und Softwareschmiede absolut sicher sein.

Aus diesem Grund entwickelten die NGCert-Projektpartner Programme als Teil der Zertifikate, die den Standort der Rechner des Cloud-Anbieters ständig überprüfen, was als Geolokation bezeichnet wird. Die Software testet alle Wege der Datenpakete, die vom Unternehmen bis zum Cloud-Anbieter geschickt werden. Sie sind charakteristisch wie Fingerabdrücke. Verändern sie sich, ist das ein Zeichen dafür, dass die Datenverarbeitung in einer anderen Region stattfindet und möglicherweise Rechner im Ausland genutzt werden.

Legal und unabhängig

Ein weiteres Kriterium ist die so genannte Rechtssicherheit der Cloud-Services. Gesetze zum Datenschutz und zur Datensicherheit können sich immer wieder ändern, beispielsweise wie lange Zugriffsdaten gespeichert werden müssen. Ein Zertifikat, was einmal ausgestellt wird, kann auf solche Änderungen nicht reagieren. „Unsere Idee der dynamischen Zertifikate kann auch diese Problematik lösen. Es gibt viele einzelne Software-Komponenten, die unabhängig voneinander und auch nach Erstausstellung des Zertifikats ständig verändert werden können – so genannte Module.“, sagt Krcmar.

Zudem soll das prüfende System unabhängig vom eigentlichen Cloud-Anbieter sein und als eigenständiges, objektives System angeboten werden, so der Wunsch der Unternehmen. Dann lässt sich ein Missbrauch von ungültigen oder abgelaufenen Qualitätssiegeln eindämmen. Das Team um Prof. Krcmar entwickelte auch schon erste Ideen für Geschäftsmodelle für solche unabhängigen Zertifizierungsdienste.

Die Wissenschaftlerinnen und Wissenschaftler haben eine Zusammenfassung ihrer Ergebnisse in dem Abschlussband “Management sicherer Cloud-Services” veröffentlicht, das im Dezember 2017 erschienen ist. Künftig wollen die Forscherinnen und Forscher ihre Ergebnisse auch auf den Konsumentenmarkt ausweiten, um das Vertrauen in Cloud-Dienste und ähnliche Bereiche wie „eCommerce“ oder „Location Based Services“ zu stärken.

Face ID versagt zu oft.

Ich kann mich noch gut an eine Szene erinnern, die kurz nach Einführung von Autoschlössern mit Funksignal stattfand. Ich stand in einer kleinen Straße in Newcastle-upon-Thyne, der nordwestenglischen Stadt, aus der der nur mäßig erfolgreiche Newcastle United FC kommt. Jemand drückte den Knopf des Schlüssels und drei Autos, von zwei verschiedenen Herstellern, öffneten sich.

Etwa diesen Entwicklungsstand scheint die Face ID von Apple derzeit auch zu haben. Dass Wissenschaftler das Ding mit Masken knacken … ok. Mit genug Energie, Know-how und Zeit lässt sich jedes System überwinden.

Jetzt ging durch die Presse, dass eine chinesische Apple-Kundin ihr iPhone X durch eine Kollegin entsperren lassen kann. Um sicherzugehen, dass das kein Zufall war, probierte sie es mit einem zweiten Gerät aus. Das Ergebnis war das gleiche. Und nein, auch wenn manche Europäer das denken, Chinesinnen sehen nicht alle gleich aus. Das ist ein psychologischer Effekt – den ein Smartphone nicht haben kann.

Das ist kein Einzelfall. Mein Tipp: Spart Euch die Face ID. Auch wenn sie in Tausend Fällen funktioniert, Ihr wollt nicht der Tausendunderste Fall sein, in dem es nicht klappt.

Man kann sie dauerhaft deaktivieren, indem man in Einstellungen auf Face ID & Code geht und dort iPhone entsperren deaktiviert. Schon seid Ihr wieder bei der klassischen PIN.

Was Siri – noch – nicht versteht

Design und Künstliche Intelligenz

Beim Design-Zoom an der HAWK Hochschule in Hildesheim ging es um Künstliche Intelligenz und wie sie die Berufswelt verändert

Gefühle, Intuitionen und Kreativität werden noch viele Jahre – vielleicht immer – dem Menschen vorbehalten sein. Das ist die gute Nachricht vom Design-Zoom der HAWK-Fakultät Gestaltung. Rund achtzig Gäste waren zu der Tagung nach Hildesheim auf den Campus Weinberg gekommen. Das Thema: „Künstliche Intelligenz – welchen Einfluss werden die aktuellen Entwicklungen auf den Beruf des Designers/der Designerin haben?“ Aber schon jetzt ist abzusehen, dass solche Jobs wegrationalisiert werden, die sich immer mit automatisierbaren Tätigkeiten beschäftigten. Die „Unermüdlichkeit der Systeme“ wird sie ersetzen, wie es Nico Weckerle, Head of Experience Strategy bei der Deutschen Telekom, formuliert. „Wir werden sehr spannende virtuelle Kollegen bekommen“, prognostiziert Michael Zöllner, Professor für Interaction Design an der Hochschule Hof. Schon heute werden künstliche neuronale Netzwerke des Gehirns nachempfunden, selbstlernende Algorithmen – das so genannte Deep Learning – rechnen sich selbst immer schlauer. Manchmal so schlau, dass die menschlichen Entwickler/innen die Wege nicht einmal mehr rekonstruieren können. Das ist bereits Realität und Christian Glessner von Hololux, einer Agentur für Virtual und Mixed Reality, hatte sogar schon Gelegenheit, einen „Feel-Anzug“ auszuprobieren, durch den man beispielsweise den Widerstand des Fangarmes auf den virtuell geworfenen Ball zu spüren glaubt.

Dennoch: „Künstliche Intelligenz wird von vielen noch weit überschätzt“, sagt Agnieszka M. Walorska, Geschäftsführerin von Creative Construction, Autorin von Fachpublikationen und Keynote-Speakerin zu Themen wie Agiles Management, Digitale Innovation und Customer Experience. Künstliche Intelligenz sei inzwischen zum Beispiel sehr gut bei Bilderkennung, aber Text beziehungsweise Kontext sei immer noch etwas extrem Schwieriges, weil die Maschinen so etwas wie einen Common Sense nicht verstehen. Das sei sehr gut bei aktuellen Beispielen wie Siri und Alexa zu sehen, wenn sich Leute sich einen Spaß daraus machten, sie in die Irre zu führen.

Die beiden vermeintlich intelligenten, virtuellen Assistentinnen hatten auch Prof. Dr. Henrik Oehlmann, Dekan der Fakultät Gestaltung, Grenzen demonstriert. Auf den Sprachbefehl, ‚schreib mir eine Rede‘ hatte sich Alexa geweigert und Siri hatte den Auftrag nicht verstanden. Die Rede sollte nett, klassisch, aber ohne Floskeln sein. Da war die künstliche Intelligenz überfordert. So fand Oehlmann lieber selbst herzliche Begrüßungsworte. Dr. Marc Hudy, Geschäftsführender HAWK-Präsident, konterte diese kleine Inszenierung im Dialog mit seiner eigenen Siri und berichtete, wie beispielsweise die hannoversche Polizei regelmäßig die virtuellen Geister von Navigationsgeräten bezwingen muss. Wenn der Autoverkehr auf dem Messeschnellweg bei großen Messen vierspurig zur An- und Abfahrt nur in jeweils eine Richtung gelenkt werde, gibt sie per Verkehrsfunk den dringenden Hinweis: „Bitte folgen Sie der Beschilderung und nicht Ihrem Navigationsgerät“.

Die Künstliche Intelligenz steht auch aus Sicht von Georg Tiemann, Geschäftsführender Gesellschafter der Agentur Crossmedia, noch ganz am Anfang. Er wünscht sich, dass die Werbebranche auf Basis der riesigen Datenmengen eines Tages vorhersagen kann, was für Kunden relevant wird, damit individuell auf den einzelnen Nutzer, die einzelne Nutzerin eingegangen werden kann.

Wer weiß, vielleicht ist das im Fall von Agnieszka Walorska ja schon gelungen. Witzig, aber auch ein bisschen „spooky“, also gespenstisch, fand sie den Umstand, dass sich nach der Suche von TV-Serien in die Vorschläge ‚was Sie sonst noch interessieren könnte…“ plötzlich eine Werbung für Baby-Utensilien mischte. Sie ist Anfang dreißig, hat aber aktuell keine Nachwuchsabsichten und nirgends nach solchen Themen gesucht. Der Schwangerschaftstest war denn auch negativ, aber das Gefühl: besorgt. Was, wenn jemand Seiten mit radikalem Gedankengut aufruft und das selbstlernende System immer neue und immer radikalere Seiten vorschlägt? Walorska fragt: „Werden wir schleichend manipuliert“? International wird denn auch die Gefahr beschworen, dass wir unmerklich unsere Entscheidungsfreiheit verlieren und unser intellektueller Radius radikal abnimmt, weil Menschen nur noch das konsumieren, was sie ohnehin gesucht haben und ihnen nichts Neues mehr unter die Augen kommt.

Dass die Entwicklung unüberschaubaren Fluch und Segen mit sich bringt – darin waren sich die Vortragenden in Hildesheim einig. Doch auch heute schon, im konkreten Wettkampf der Marken, stehen Designerinnen und Designer vor schwierigen Herausforderungen. Wenn das Firmenlogo beispielsweise auf einer Playlist nur wenige Pixel groß sein darf und trotzdem wiedererkannt werden soll. Oder wenn sich die Gestaltung einer Webseite für das Mobiltelefon nur nach Funktionsebenen richten darf. Eine Lösung für den Dauerzwist zwischen technischen Entwickler/inne/n und Designer/innen hat Philip Behr, Creativ Director der Agentur SinnerSchrader, vorgestellt: die Code-Bibliothek, die beide Seiten dieselbe Sprache sprechen lässt. Dass Design und Ergebnisse bedingungslos nutzerorientiert sein müssen, versteht sich aus seiner Sicht von selbst.

Doch was heißt eigentlich „bedingungslos nutzerorientiert“? Da scheint die Idee von Akiem Helmling von der Schriftgestaltungsagentur Underware, dass Jede und Jeder lebenslang eine ganz persönliche Schrift bekommen kann, im Vergleich liebevoll verspielt. „Aber wie weit wollen wir eigentlich gehen mit neuen Anwendungen? Ich wünsche mir, dass wir nicht nur der Magie des Neuen unterliegen“, sagt Prof. Barbara Kotte, die an der HAWK Advertising Design lehrt. Gemeinsam mit Ko-Dozent Andreas Kreichelt und ihrem Kurs hat sie den Design-Zoom entwickelt und realisiert. „Wir müssen uns schleunigst mit ethischen Fragen und unserer eigenen Verantwortung beschäftigen und unsere Studierenden auf die Entwicklung vorbereiten. Auch das ist ein Ziel unseres Design-Zooms.“

Denn genaugenommen steht die nächste große Entwicklung vielleicht kurz bevor: die Vervielfältigung der Rechnerleistungen. Für Dr. Didier Stricker, Professor für Informatik an der TU Kaiserslautern und Leiter des Forschungsbereichs „Augmented Vision“, zeichnet sich ab: „Die Deep-Learning-Verfahren sind sehr mächtig und werden bisher noch auf PCs realisiert, also mit sehr großer Hardware. Aus meiner Sicht ist der nächste Schritt, dass jeweils für die drei Bereiche Grafik, Computing und neuronale Netzwerke Prozessoren in Mikrochips untergebracht werden können. Daraus wird eine neue Generation von Geräten entstehen, die viel intelligenter ist als heute.“ Auch Dr. Martin Brüchert vom Fraunhofer INT rechnet mit einem solchen Fortschritt. Hololux-Gründer Christian Glessner sieht in diesem Zusammenhang auch die Realisierung so genannter Quantencomputer als bahnbrechende Wende an, die ins Haus steht. Quantencomputer folgen in ihrer Hardware der Lehre der Quantenmechanik und sollen eine weitaus höhere Rechenleistung als aktuelle Super-Computer haben.

Was jetzt schon geht, konnten die Tagungsteilnehmer/innen bei einer kleinen interaktiven Ausstellung auf dem Campus schon mal am eigenen Leibe ausprobieren.

Mit Algorithmen Krankheiten erkennen

Würdest Du von einer Maschine ausschließen lassen, dass Du krank bist? Ich meine nicht, ausschließen, ob Du Schnupfen hast. Sondern ausschließen, ob Du eine Schädelerkränkung hast z.B. Computerhilfe für Ärzte unter Zeitdruck verspricht eine Studie. Sie sollen sich auf die schwierigen Fälle konzentrieren können.

Studenten der Biomedizinischen Technik an der Hochschule Landshut forschten im Rahmen einer Projektarbeit daran, wie Algorithmen Radiologen bei der Untersuchung medizinischer Bilder unterstützen können.

Der Landshuter Student Jakob Dexl hat gemeinsam mit Mitstudierenden untersucht, wie Algorithmen medizinische Diagnosen schneller und besser machen können.
Hochschule Landshut

Dank Röntgenstrahlen, Ultraschall oder Kernspin können Ärzte Krankheiten im Körper ohne Operation entdecken. Dafür müssen Radiologen zahlreiche Bilder analysieren – das kostet viel Zeit und Konzentration. In Zukunft könnten Computer ihnen dabei die Arbeit erleichtern. Die Landshuter Studierenden Jakob Dexl, Lisa-Marie Kirchner, Maximilian Reiser und Michael Uhl des Studiengangs Biomedizinische Technik untersuchten, inwieweit bestimmte Algorithmen Schädel-MRT-Aufnahmen vorsortieren können. Das würde bedeuten, dass Ärzte sich stärker auf auffällige Bilder mit schwierigen Befunden konzentrieren können. Die Praxis Radiologie Mühleninsel aus Landshut stellte dafür echte MRT-Daten von Patienten zur Verfügung – natürlich komplett anonymisiert. Unterstützung erhielt das Team außerdem vom Radiologen Prof. Dr. Andreas Lienemann sowie im technischen Bereich vom Gesundheits-IT-Unternehmen Cerner Deutschland GmbH.

Machine Learning: Das Programm lernt mit

Für die automatische Klassifizierung von Bildern in „krank“ und „gesund“ kommen moderne Algorithmen des maschinellen Lernens zum Einsatz, die, ähnlich wie ein Radiologe, anhand vorhandener Daten die Einordnung trainieren. „Eine große Herausforderung bei diesem Projekt war, dass auch Bilder von gesunden Patienten stark voneinander abweichen, zum Beispiel aufgrund von gutartigen Erkrankungen oder des Alters. Die Heterogenität ist also riesig“, erklärt Dozentin Prof. Dr. Stefanie Remmele, die das Team bei ihren Projekt- und Abschlussarbeiten betreute. „Gleichzeitig unterscheidet der Radiologe zwischen krank und gesund manchmal nur anhand winziger Details. Das macht es für den Algorithmus sehr schwierig, die Bilder richtig einzuordnen.“ Die Studierenden definierten daher Bildausschnitte und Merkmale, anhand derer das Programm gesund und krank auseinanderhalten soll – beispielsweise Formen und Größen von Gehirnstrukturen. Dafür fütterten sie den Algorithmus mit Bildern und Daten.

Beim ersten Test im Rahmen der Studienprojekte schnitt dieser schon gut ab. Doch bis der computerunterstützte Befund Radiologen auch wirklich in ihrer Arbeit entlasten kann, „wird noch viel Forschung an dem Thema nötig sein“, meint Dexl. Er und sein Team haben beispielsweise nur ein Bild pro Patient genutzt – in der Realität werden für einen Befund mehr Bilder aufgenommen, etwa unterschiedliche Schnitte des Gehirns oder Ansichten. Dexls Kollege Reiser ist sich sicher: „Im Bereich Machine Learning wird schon seit Jahren geforscht. Auch in der Medizintechnik ist das Thema am Kommen.“

Leichte, kompakte VR-Brillen durch großflächige Mikrodisplays

VR-Brillen liegen im Trend. Bisher sind sie jedoch meist schwer und überdimensioniert. Großflächige Mikrodisplays sollen das ändern: Sie ermöglichen ergonomische und leichte VR-Brillen. Die neuen OLED-Displays erreichen nun erstmals sehr hohe Taktraten und erzielen mit »full-HD extended« eine sehr gute Auflösung.

Dank eines ausgeklügelten Systemkonzepts und moderner Designmethodik erzielt das neue OLED-Mikrodisplay eine Auflösung von 1920 x 1200 Pixel.
Foto: © 2017 Claudia Jacquemin | www.jacquem.in

Das Bild ist stechend scharf – man fühlt sich, als würde man tatsächlich durch die fantastischen Welten wandeln, die die VR-Brille um einen herum entstehen lässt. Bisher sind die Brillen jedoch meist noch recht schwer und sperrig. Das liegt vor allem an den Displays, die das Kernstück einer jeden VR-Brille bilden. Kommerziell verfügbare VR-Brillen nutzen in der Regel Displays aus dem Smartphone-Markt. Diese sind kostengünstig verfügbar und erlauben ein großes Sichtfeld mit einfachen Optiken. Der Nachteil liegt in der verpixelten Bilddarstellung durch die limitierte Auflösung und die unzureichende Pixeldichte. Weiterhin kommen modulierende LCD- und LCOS-basierte Mikrodisplays zum Einsatz. Diese sind nicht selbstleuchtend, so dass eine externe Beleuchtung erforderlich ist. Um die VR-Brillen leicht und ergonomisch zu gestalten, setzen einige Hersteller bereits auf OLED-Mikrodisplays: Diese basieren auf organischen Leuchtdioden, die auf einen Silizium-Chip integriert werden und von selbst leuchten. Damit sind sie energieeffizient und bieten sehr hohe Kontrastverhältnisse >10.000:1. Darüber hinaus ermöglicht der Wegfall der Hintergrundbeleuchtung einen vereinfachten Aufbau mit weniger optischen Komponenten.

Ein weiterer Vorteil besteht in der hohen Schaltgeschwindigkeit der OLEDs im Bereich von wenigen Mikrosekunden im Vergleich zu Millisekunden bei LCDs. Dies ermöglicht hohe Bildwiederholraten sowie den Einsatz spezieller Modulationsverfahren zur Verbesserung des wahrgenommenen Bildes.

Kompaktes Design und hohe Auflösung

Forscher des Fraunhofer-Instituts für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP in Dresden entwickeln im EU-Projekt LOMID, kurz für Large cost-effective OLED microdisplays and their applications, gemeinsam mit Industriepartnern neuartige OLED-Mikrodisplays, die deutlich bessere Eigenschaften aufweisen als die handelsüblichen. »Unser Ziel ist es, eine neue Generation von OLED-Mikrodisplays zu entwickeln, die ein kompaktes Design der VR-Brillen erlauben und sich durch eine exzellente Bildqualität auszeichnen«, erläutert Philipp Wartenberg, Abteilungsleiter am FEP, das im Projekt für den Entwurf der integrierten Schaltung im Silizium-Chip, das OLED-Prototyping sowie die Gesamt-Projektkoordination zuständig ist. »Erreichen wollen wir das über ein spezielles Design des OLED-Mikrodisplays.« So weit, so gut. Doch was ist an den Mikrodisplays, die im Projekt entwickelt werden, so besonders? Zum einen ihre Auflösung: Sie erreichen extended full-HD, ihre Auflösung beträgt 1920 x 1200 Pixel (WUXGA). Die Bildschirmdiagonalen liegen bei einem Zoll, die Bildwiederholrate bei 120 Hertz. Das heißt: Es werden 120 Bilder pro Sekunde eingeblendet – Bewegungen in der virtuellen Welt wirken damit sehr flüssig.

Spezielle Schaltungen auf dem Chip

Das Mikrodisplay setzt sich aus zwei Komponenten zusammen: Dem Silizium-Chip zur Ansteuerung der Pixel sowie der OLED. Diese selbst besteht aus mehreren organischen Schichten, die monolithisch auf Silizium-Wafern integriert werden. Welche Auflösung und Bildrate das Mikrodisplay hat, gibt der Chip vor – und zwar durch seine integrierte Schaltung. Der Clou liegt in der Art der Schaltung. »Die Kunst besteht nicht nur darin, Auflösung und Bildwiederholrate hochzuschrauben, sondern dabei den Stromverbrauch auch noch möglichst gering zu halten«, sagt Wartenberg. »Das ist uns sehr gut gelungen – dank eines ausgeklügelten Systemkonzepts und moderner Designmethodik sowie unserer mehr als zehnjährigen Erfahrung im Design von OLED Mikrodisplays am FEP.«

Einen ersten Prototyp gibt es bereits. Diesen stellen die Forscher vom 5. bis 7. Dezember 2017 in Brüssel vor, auf dem European Forum for Electronic Components and Systems EFECS. Bis Mitte 2018 sollen weitere Prototypen folgen. Für die zeitnahe Überführung dieses Mikrodisplays in ein Markt-Produkt haben die beteiligten Industriepartner bereits Interesse signalisiert. Die Anwendungen der OLED-Mikrodisplays sind dabei keineswegs nur auf VR-Brillen begrenzt – auch wenn diese mittelfristig der größte Markt sein dürften. Sie eignen sich darüber hinaus für andere Produkte, etwa Augmented-Reality-Brillen (AR) oder View-Finder in Kameras. Die Basis-Technologie CMOS-integrierter Lichtemitter (und ggf. –detektoren) bietet auch Anwendungspotenzial in anderen Marktsegmenten, z.B. optischer Messtechnik, Identifikation oder Optogenetik.

Insbesondere für Mikrodisplays in consumer-tauglichen Augmented Reality-Brillen sehen die Forscher noch einige bislang ungelöste Herausforderungen, die sie künftig angehen wollen: Sehr hohe Helligkeiten und Effizienz (wofür die bisherigen Farbfilter abgelöst und durch direkt strukturierte Emitter ersetzt werden müssen), gute Ausbeute bei großer (Chip-)Fläche, gekrümmte Oberflächen für kompaktere Optik, kreisförmige Leuchtflächen, irreguläre Pixel-Matrizen bei noch höherer Pixeldichte, integrierte Augenverfolgung und transparente Substrate.