Magnetische Kontrolle per Handzeichen

Spätestens seit dem Erfolg der Spiele-App Pokémon GO ist vielen Menschen die „Erweiterte Realität“ ein Begriff. Per Computer wird eine Wahrnehmung erzeugt, bei der sich reale und virtuelle Welt vermischen. Bisher beruhten diese Anwendungen hauptsächlich auf optischen Methoden. Physiker des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) konnten mit Kollegen des Leibniz-Instituts für Festkörper- und Werkstoffforschung (IFW) sowie der Johannes Kepler Universität Linz (JKU) einen ultradünnen, elektronischen Magnetsensor entwickeln, der sich auf der Haut tragen lässt. Allein über die Interaktion mit Magnetfeldern ermöglicht das Gerät, virtuelle und physische Gegenstände berührungslos zu steuern.

Team entwickelt elektronische „Haut“ für virtuelle Realität

Abhängig von den Feldern eines Permanentmagneten werden die Bewegungen der Hand, auf der der Sensor aufgebracht ist, auf eine virtuelle Skala übertragen, was die Lichtintensität kontrolliert.
D. Makarov

Auf den ersten Blick wirken die kleinen goldglänzenden Elemente wie ein modernes Tattoo. Doch auf der hauchdünnen Folie, die sich an die Handinnenfläche wie eine zweite Haut anschmiegt und mit dem bloßen Auge kaum zu erkennen ist, befinden sich Sensoren, die den Menschen einen magnetischen sechsten Sinn verleihen könnten. In Zukunft soll es ihnen dadurch ermöglicht werden, Objekte, zum Beispiel Telefone oder Bedienungsanlagen, sowohl in der physischen Welt als auch in Umgebungen der erweiterten oder virtuellen Realität mit bloßen Gesten zu steuern. So schwebt es zumindest Dr. Denys Makarov vom Institut für Ionenstrahlphysik und Materialforschung am HZDR vor.

Erstmals konnten der Physiker und sein Team nun – gemeinsam mit der Gruppe um Prof. Oliver G. Schmidt vom IFW Dresden und Prof. Martin Kaltenbrunner vom Soft Electronics Laboratory am Linz Institute of Technology der JKU – zeigen, dass die ultradünnen und fügsamen Magnetsensoren in Kombination mit einem Permanentmagneten Positionsänderungen eines Körpers im Raum wahrnehmen und verarbeiten können. „Unsere elektronische Haut zeichnet die Bewegungen beispielsweise einer Hand auf, indem sie ihre Position in Verbindung zu den externen Magnetfeldern des Permanentmagneten setzt“, erläutert der Erstautor der Studie Cañón Bermúdez vom HZDR. „Dadurch können wir ihre Rotationen nicht nur digitalisieren und in die virtuelle Welt übertragen, sondern dort sogar Objekte beeinflussen.“ So gelang es den Forschern, eine virtuelle Glühbirne auf einem Computerbildschirm berührungslos zu steuern.

Ein virtuelles Leuchten

Den Permanentmagneten verpackten sie dafür in eine ringförmige Struktur. Verschiedene Winkel ihres tragbaren Sensors zu dieser Quelle unterteilten sie dann in unterschiedliche Regionen, die wiederum mit der Lichtintensität der Glühbirne korrespondierten. „Indem wir die Winkel zwischen 0 und 180 Grad so codierten, dass sie einer typischen Handbewegung beim Dimmen einer Lampe entsprechen, haben wir einen virtuellen Helligkeitsregler kreiert – und ihn nur durch die Bewegung einer Hand über dem Permanentmagneten gesteuert“, beschreibt Makarov einen der Versuche. Auf ähnliche Weise konnten die Forscher auch eine virtuelle Wählscheibe bedienen. Nach Ansicht der Dresdner Physiker könnte sich auf dieser Grundlage eine Alternative zu den bislang verwendeten Verbindungsmethoden zwischen der physischen und der erweiterten oder virtuellen Welt ergeben.

„Die aktuellen Systeme erfassen vor allem über optische Mittel die sich bewegenden Körper, um virtuelle Objekte zu manipulieren“, erzählt Makarov. „Dafür werden zum einen eine große Anzahl an Kameras sowie Beschleunigungsmesser und zum anderen eine schnelle Bilddatenverarbeitung benötigt. Dabei reicht aber meist die Auflösung nicht aus, um auch feine Bewegungen, wie mit den Fingern, zu rekonstruieren. Aufgrund ihrer Sperrigkeit hemmen übliche Handschuhe und Brillen außerdem die Erfahrungen in der virtuellen Realität.“ Die hautähnlichen Sensoren könnten ein besseres Verbindungsstück zwischen Mensch und Maschine sein, schätzt Martin Kaltenbrunner ein: „Da unsere Polymer-Folien nicht einmal drei Mikrometer dick sind, kann man sie leicht am Körper tragen. Nur zum Vergleich: ein normales menschliches Haar ist etwa 50 Mikrometer dick.“

Wie weitere Versuche gezeigt haben, können die Sensoren darüber hinaus starken Verbiegungen und Verkrümmungen standhalten, ohne ihre Funktionalität einzubüßen. Sie eignen sich deshalb nach Meinung von Oliver G. Schmidt für den Einbau in weiche und verformbare Materialien, also etwa Textilien, um tragbare Elektronik zu fertigen. Einen zusätzlichen Vorteil des neuen Ansatzes gegenüber den optischen Systemen sieht Makarov darin, dass keine direkte Sichtverbindung zwischen dem Objekt und den Sensoren benötigt wird. Daraus ergeben sich auch mögliche Anwendungen für die Sicherheitsindustrie. So könnten beispielsweise Knöpfe oder Regler in Räumen, die wegen einer Gefahrensituation nicht betreten werden dürfen, über die Sensoren auch aus der Ferne bedient werden.

Dynamische Zertifikate machen Cloud-Anbieter sicherer

Die Menge der digitalen Daten, die Unternehmen produzieren und speichern, wächst. Die Cloud-Technologie bietet eine bequeme Lösung: IT-Dienstleister stellen Speicherplatz oder Software zur Verfügung, so dass Daten dezentral gespeichert werden. Doch wie können Unternehmen sicher sein, dass die Daten vor fremden Zugriffen geschützt sind und nicht gelöscht werden? Forscherinnen und Forscher der Technischen Universität München (TUM) haben sich mit dieser Frage beschäftigt und ein Modell entwickelt, mit dem Anbieter verlässlich überprüft und zertifiziert werden können.

Mit neuen dynamischen Zertifikaten wollen die Wissenschaftler des NGCert-Konsortiums Cloud-Anbieter sicherer machen. (Bild: H. Krcmar, C. Eckert, A. Roßnagel, A. Sunyaev, M. Wiesche)
Gerade für kleine und mittelständische Unternehmen ist es oft schwierig bei den vielen kleineren Cloud-Dienstleistern einen sicheren und zuverlässigen Anbieter zu finden. In Gesprächen mit etwa 100 IT-Spezialisten aus solchen Unternehmen haben Wissenschaftlerinnen und Wissenschaftler der TUM unter Leitung von Prof. Helmut Krcmar, Inhaber des Lehrstuhls für Wirtschaftsinformatik, eine Lösung für dieses Problem erarbeitet. Zusammen mit sechs weiteren Partnern entwickelten sie im Rahmen des Konsortiums „Next Generation Certification“ (NGCert) ein neues dynamisches Zertifizierungssystem für Cloud-Services.

Cloud-Zertifikate müssen flexibel sein

Es gibt zwar schon jetzt Qualitätssiegel, so genannte Zertifikate, welche die Sicherheit der gespeicherten Daten garantieren sollen. Sie werden unter anderem vom TÜV ausgestellt und prüfen bestimmte Anforderungen zum Beispiel gesetzliche Vorschriften, die ein Anbieter für seine Kunden erfüllen muss. Die Qualitätssiegel werden allerdings häufig für ein bis drei Jahre bewilligt – mit nur einmaliger Prüfung.

Das Hauptproblem, erklärt Helmut Krcmar, seien genau solche statischen Zertifikate. „Zertifikate verlieren sehr viel schneller ihre Aktualität als nach ein bis drei Jahren und damit auch ihre Sicherheit. Wir brauchen dynamische Systeme, die ständig über den Zeitraum ihrer Gültigkeit geprüft werden können. Wir haben jetzt erstmals ein Modell entwickelt, wie das organisatorisch und technisch möglich ist.“ Bei den befragten Unternehmen zeigte sich, dass die Einführung solcher dynamischer Qualitätssiegel das Vertrauen der Unternehmen in Clouds deutlich steigern kann und sie dann die Technik leichter einsetzen können.

Sichere Speicherung in Deutschland

Die Wissenschaftlerinnen und Wissenschaftler arbeiteten in Zusammenarbeit mit Firmen und Cloud-Services wichtige Kriterien heraus, die solche neuen dynamischen Zertifikate erfüllen müssen. Für Dreiviertel der befragten Firmen standen vor allem die Datensicherheit und der Datenschutz an oberster Stelle. Häufig werden vertrauliche Personaldaten in der Cloud gespeichert. Rechtlich behalten die Firmen die Verantwortung für ihre Daten und nicht der Cloud-Dienstleiser. Deshalb ist es wichtig, dass die Daten zuverlässig in Deutschland gespeichert werden, wo strenge Datenschutzgesetze gelten.

Diese Ansicht vertritt auch das Team von refixo. Für unsere refixo Repaircloud, eine PoS-Software für Werkstätten und Reparaturbetriebe, haben wir deutsche Server gebucht. Wesentliches Element des Tools ist eine Kundenverwaltung der Werkstätten. Und die muss aus Sicht aller Beteiligten, Kunden, Reparaturbetriebe, Cloudbetreiber und Softwareschmiede absolut sicher sein.

Aus diesem Grund entwickelten die NGCert-Projektpartner Programme als Teil der Zertifikate, die den Standort der Rechner des Cloud-Anbieters ständig überprüfen, was als Geolokation bezeichnet wird. Die Software testet alle Wege der Datenpakete, die vom Unternehmen bis zum Cloud-Anbieter geschickt werden. Sie sind charakteristisch wie Fingerabdrücke. Verändern sie sich, ist das ein Zeichen dafür, dass die Datenverarbeitung in einer anderen Region stattfindet und möglicherweise Rechner im Ausland genutzt werden.

Legal und unabhängig

Ein weiteres Kriterium ist die so genannte Rechtssicherheit der Cloud-Services. Gesetze zum Datenschutz und zur Datensicherheit können sich immer wieder ändern, beispielsweise wie lange Zugriffsdaten gespeichert werden müssen. Ein Zertifikat, was einmal ausgestellt wird, kann auf solche Änderungen nicht reagieren. „Unsere Idee der dynamischen Zertifikate kann auch diese Problematik lösen. Es gibt viele einzelne Software-Komponenten, die unabhängig voneinander und auch nach Erstausstellung des Zertifikats ständig verändert werden können – so genannte Module.“, sagt Krcmar.

Zudem soll das prüfende System unabhängig vom eigentlichen Cloud-Anbieter sein und als eigenständiges, objektives System angeboten werden, so der Wunsch der Unternehmen. Dann lässt sich ein Missbrauch von ungültigen oder abgelaufenen Qualitätssiegeln eindämmen. Das Team um Prof. Krcmar entwickelte auch schon erste Ideen für Geschäftsmodelle für solche unabhängigen Zertifizierungsdienste.

Die Wissenschaftlerinnen und Wissenschaftler haben eine Zusammenfassung ihrer Ergebnisse in dem Abschlussband “Management sicherer Cloud-Services” veröffentlicht, das im Dezember 2017 erschienen ist. Künftig wollen die Forscherinnen und Forscher ihre Ergebnisse auch auf den Konsumentenmarkt ausweiten, um das Vertrauen in Cloud-Dienste und ähnliche Bereiche wie „eCommerce“ oder „Location Based Services“ zu stärken.

Die Salzwasser-Batterie

Wasser könnte die Basis bilden für zukünftige, besonders preisgünstige aufladbare Batterien. Empa-Forschern ist es mit einer speziellen Salzlösung gelungen, die elektrochemische Stabilität von Wasser zu verdoppeln. Damit rückt eine wirtschaftliche Nutzung der Technologie näher.

Auf der Suche nach sicheren, preisgünstigen Akkus für die Zukunft stellt sich irgendwann die Frage: Warum nehmen wir nicht einfach Wasser als Elektrolyt? Wasser ist preisgünstig, überall verfügbar, brennt nicht und kann Ionen leiten. Doch Wasser hat einen entscheidenden Nachteil: Es ist nur bis zu einer Spannungsdifferenz von 1,23 V chemisch stabil. Eine Wasser-Zelle liefert also dreimal weniger Spannung als eine handelsübliche Lithium-Ionen-Zelle mit 3,7 Volt, weshalb sie sich für Anwendungen im Elektroauto kaum eignen würde. Eine kostengünstige Batterie auf Wasserbasis könnte aber für stationäre Stromspeicheranwendungen äusserst interessant werden.

Salzlösung ohne freies Wasser

Ruben-Simon Kühnel und David Reber, Forscher in der Empa-Abteilung «Materials for Energy Conversion», haben nun einen Weg entdeckt, wie das Problem zu lösen sein könnte: Der salzhaltige Elektrolyt muss zwar flüssig sein, aber zugleich so hoch konzentriert, dass darin kein «überschüssiges» Wasser enthalten ist.
Für ihre Versuche benutzten die beiden Forscher das Spezialsalz Natrium-FSI (exakter Name: Natrium-bis(fluorosulfonyl)imid). Dieses Salz ist extrem gut wasserlöslich: sieben Gramm Natrium-FSI und ein Gramm Wasser ergeben eine klare Salzlösung (siehe Videoclip). In dieser Flüssigkeit sind sämtliche Wassermoleküle um die positiv geladenen Natrium-Kationen herum in einer Hydrathülle gruppiert, es sind kaum ungebundene Wassermoleküle mehr vorhanden.

Kostengünstige Fertigung

Forschung am Wasser-Elektrolyt: Empa-Forscher Ruben-Simon Kühnel schliesst eine Test-Zelle mit der konzentrierten Salzlösung ans experimentelle Ladegerät an.
Empa

Die Forscher fanden dabei heraus, dass diese Salzlösung eine elektrochemische Stabilität von bis zu 2,6 Volt aufweist – also knapp doppelt so viel wie andere wässrige Elektrolyten. Die Entdeckung könnte der Schlüssel sein zu preisgünstigen und sicheren Batteriezellen. Preisgünstig auch deshalb, weil sich die Natrium-FSI-Zellen ungefährlicher und damit einfacher bauen liessen als die bekannten Li-Ionen-Akkus.
Eine Reihe von Lade- und Endladezyklen hat das System im Labor bereits erfolgreich überstanden. Bislang jedoch testeten die Forscher die Anoden und Kathoden ihrer Versuchsbatterie getrennt – gegen eine Standardelektrode als Partner. In einem nächsten Schritt sollen nun die beiden Halbzellen zu einer einzigen Batterie vereinigt werden. Dann sind weitere Lade- und Entladezyklen vorgesehen. Diese Forschungsaktivitäten der Empa an neuartigen Batterien für stationäre Stromspeicher sind in das «Swiss Competence Center for Heat and Electricity Storage» (SCCER HaE) eingebettet, das Forschung für neue Wärme- und Stromspeicher Konzepte auf nationaler Ebene koordiniert und durch das Paul-Scherrer-Institut geleitet wird. Wenn das Experiment gelingt, rückt die preiswerte Wasser-Batterie in greifbare Nähe.

Alphonso gar nicht nett

Der nächste Spionage-Skandal in Deinem Wohnzimmer. Jedenfalls, falls dort Dein Fernseher steht.

Die US-Zeitung New York Times berichtet in ihrer Online-Ausgabe, sie hätte mehr als 250 Spiele im Google Play Store identifiziert, die über Software aus dem Hause Alphonso Inc. verfügen. Das wäre nicht schlimm, würde Alphonso nicht mit diesen Spielen tracken, welche Filme Du gerade siehst.

Das Spiel greift dauerhaft und standardisiert auf Dein Mikro zu und wartet darauf, dass es einen Schnipsel auffängt, von dem ihm vorher gesagt wurde, dass es bei Erkennen Big Data informieren soll.

Deine Internetverbindung und Deine Speicherkapazität werden also dauernd benutzt, um den Spielen neue Aufträge zu erteilen. Interessant ist, dass vermutlich deutsche Fernsehsender nicht in dieser Weise spionieren, es also nicht mal Sinn macht, Dein Handy vollzumüllen.

Bist Du das oder ist das Mama?

Noch viel spannender ist, dass Sender einen Spion in Dein Wohnzimmer setzen. Du guckst eher Fox News und bist Trump-Fan? Du schaust eher CNN und giltst als potentieller Demokratenwähler? Du bist erst sieben und schaust lieber Kim Possible während … warte ich komm drauf, ob das Mama oder Papa ist … abends Kimmy Granger läuft? Und das geht wen etwas an?

Gut, Alphonso will die Spiele-App-Bastler darauf hinweisen, dass Kinder nicht getrackt werden dürfen. Die Spielehersteller sagen Dir in den AGBs auch, dass das passieren könnte. Nicht akzeptieren heißt, Du spielst wieder Mensch-ärger-Dich-nicht. Akzeptieren heißt, Du lässt Dich tracken. Was für eine Auswahl.

Alphonsos Anfänge lagen übrigens darin, die Werbepausen mit Werbung zu füllen. Du kennst das. Der Film bricht an der unpassendsten Stelle ab, gleich wird die Heldin geköpft und Du kriegst erst mal Konsumhinweise für ein Hautpflegemittel. Willst Du nicht wissen, also greifst Du zum Handy.

Das weiß aber, dass Du gerade nicht auf die Glotze glotzt und, je nach Land, Vertrag und App, zeigt Dir zunächst einen Konsumhinweis für extrascharfe Rasierer.

Fast könnte man meinen, all die schöne Technik hätten sie gar nicht für den Enduser gemacht.

Face ID versagt zu oft.

Ich kann mich noch gut an eine Szene erinnern, die kurz nach Einführung von Autoschlössern mit Funksignal stattfand. Ich stand in einer kleinen Straße in Newcastle-upon-Thyne, der nordwestenglischen Stadt, aus der der nur mäßig erfolgreiche Newcastle United FC kommt. Jemand drückte den Knopf des Schlüssels und drei Autos, von zwei verschiedenen Herstellern, öffneten sich.

Etwa diesen Entwicklungsstand scheint die Face ID von Apple derzeit auch zu haben. Dass Wissenschaftler das Ding mit Masken knacken … ok. Mit genug Energie, Know-how und Zeit lässt sich jedes System überwinden.

Jetzt ging durch die Presse, dass eine chinesische Apple-Kundin ihr iPhone X durch eine Kollegin entsperren lassen kann. Um sicherzugehen, dass das kein Zufall war, probierte sie es mit einem zweiten Gerät aus. Das Ergebnis war das gleiche. Und nein, auch wenn manche Europäer das denken, Chinesinnen sehen nicht alle gleich aus. Das ist ein psychologischer Effekt – den ein Smartphone nicht haben kann.

Das ist kein Einzelfall. Mein Tipp: Spart Euch die Face ID. Auch wenn sie in Tausend Fällen funktioniert, Ihr wollt nicht der Tausendunderste Fall sein, in dem es nicht klappt.

Man kann sie dauerhaft deaktivieren, indem man in Einstellungen auf Face ID & Code geht und dort iPhone entsperren deaktiviert. Schon seid Ihr wieder bei der klassischen PIN.

Was Siri – noch – nicht versteht

Design und Künstliche Intelligenz

Beim Design-Zoom an der HAWK Hochschule in Hildesheim ging es um Künstliche Intelligenz und wie sie die Berufswelt verändert

Gefühle, Intuitionen und Kreativität werden noch viele Jahre – vielleicht immer – dem Menschen vorbehalten sein. Das ist die gute Nachricht vom Design-Zoom der HAWK-Fakultät Gestaltung. Rund achtzig Gäste waren zu der Tagung nach Hildesheim auf den Campus Weinberg gekommen. Das Thema: „Künstliche Intelligenz – welchen Einfluss werden die aktuellen Entwicklungen auf den Beruf des Designers/der Designerin haben?“ Aber schon jetzt ist abzusehen, dass solche Jobs wegrationalisiert werden, die sich immer mit automatisierbaren Tätigkeiten beschäftigten. Die „Unermüdlichkeit der Systeme“ wird sie ersetzen, wie es Nico Weckerle, Head of Experience Strategy bei der Deutschen Telekom, formuliert. „Wir werden sehr spannende virtuelle Kollegen bekommen“, prognostiziert Michael Zöllner, Professor für Interaction Design an der Hochschule Hof. Schon heute werden künstliche neuronale Netzwerke des Gehirns nachempfunden, selbstlernende Algorithmen – das so genannte Deep Learning – rechnen sich selbst immer schlauer. Manchmal so schlau, dass die menschlichen Entwickler/innen die Wege nicht einmal mehr rekonstruieren können. Das ist bereits Realität und Christian Glessner von Hololux, einer Agentur für Virtual und Mixed Reality, hatte sogar schon Gelegenheit, einen „Feel-Anzug“ auszuprobieren, durch den man beispielsweise den Widerstand des Fangarmes auf den virtuell geworfenen Ball zu spüren glaubt.

Dennoch: „Künstliche Intelligenz wird von vielen noch weit überschätzt“, sagt Agnieszka M. Walorska, Geschäftsführerin von Creative Construction, Autorin von Fachpublikationen und Keynote-Speakerin zu Themen wie Agiles Management, Digitale Innovation und Customer Experience. Künstliche Intelligenz sei inzwischen zum Beispiel sehr gut bei Bilderkennung, aber Text beziehungsweise Kontext sei immer noch etwas extrem Schwieriges, weil die Maschinen so etwas wie einen Common Sense nicht verstehen. Das sei sehr gut bei aktuellen Beispielen wie Siri und Alexa zu sehen, wenn sich Leute sich einen Spaß daraus machten, sie in die Irre zu führen.

Die beiden vermeintlich intelligenten, virtuellen Assistentinnen hatten auch Prof. Dr. Henrik Oehlmann, Dekan der Fakultät Gestaltung, Grenzen demonstriert. Auf den Sprachbefehl, ‚schreib mir eine Rede‘ hatte sich Alexa geweigert und Siri hatte den Auftrag nicht verstanden. Die Rede sollte nett, klassisch, aber ohne Floskeln sein. Da war die künstliche Intelligenz überfordert. So fand Oehlmann lieber selbst herzliche Begrüßungsworte. Dr. Marc Hudy, Geschäftsführender HAWK-Präsident, konterte diese kleine Inszenierung im Dialog mit seiner eigenen Siri und berichtete, wie beispielsweise die hannoversche Polizei regelmäßig die virtuellen Geister von Navigationsgeräten bezwingen muss. Wenn der Autoverkehr auf dem Messeschnellweg bei großen Messen vierspurig zur An- und Abfahrt nur in jeweils eine Richtung gelenkt werde, gibt sie per Verkehrsfunk den dringenden Hinweis: „Bitte folgen Sie der Beschilderung und nicht Ihrem Navigationsgerät“.

Die Künstliche Intelligenz steht auch aus Sicht von Georg Tiemann, Geschäftsführender Gesellschafter der Agentur Crossmedia, noch ganz am Anfang. Er wünscht sich, dass die Werbebranche auf Basis der riesigen Datenmengen eines Tages vorhersagen kann, was für Kunden relevant wird, damit individuell auf den einzelnen Nutzer, die einzelne Nutzerin eingegangen werden kann.

Wer weiß, vielleicht ist das im Fall von Agnieszka Walorska ja schon gelungen. Witzig, aber auch ein bisschen „spooky“, also gespenstisch, fand sie den Umstand, dass sich nach der Suche von TV-Serien in die Vorschläge ‚was Sie sonst noch interessieren könnte…“ plötzlich eine Werbung für Baby-Utensilien mischte. Sie ist Anfang dreißig, hat aber aktuell keine Nachwuchsabsichten und nirgends nach solchen Themen gesucht. Der Schwangerschaftstest war denn auch negativ, aber das Gefühl: besorgt. Was, wenn jemand Seiten mit radikalem Gedankengut aufruft und das selbstlernende System immer neue und immer radikalere Seiten vorschlägt? Walorska fragt: „Werden wir schleichend manipuliert“? International wird denn auch die Gefahr beschworen, dass wir unmerklich unsere Entscheidungsfreiheit verlieren und unser intellektueller Radius radikal abnimmt, weil Menschen nur noch das konsumieren, was sie ohnehin gesucht haben und ihnen nichts Neues mehr unter die Augen kommt.

Dass die Entwicklung unüberschaubaren Fluch und Segen mit sich bringt – darin waren sich die Vortragenden in Hildesheim einig. Doch auch heute schon, im konkreten Wettkampf der Marken, stehen Designerinnen und Designer vor schwierigen Herausforderungen. Wenn das Firmenlogo beispielsweise auf einer Playlist nur wenige Pixel groß sein darf und trotzdem wiedererkannt werden soll. Oder wenn sich die Gestaltung einer Webseite für das Mobiltelefon nur nach Funktionsebenen richten darf. Eine Lösung für den Dauerzwist zwischen technischen Entwickler/inne/n und Designer/innen hat Philip Behr, Creativ Director der Agentur SinnerSchrader, vorgestellt: die Code-Bibliothek, die beide Seiten dieselbe Sprache sprechen lässt. Dass Design und Ergebnisse bedingungslos nutzerorientiert sein müssen, versteht sich aus seiner Sicht von selbst.

Doch was heißt eigentlich „bedingungslos nutzerorientiert“? Da scheint die Idee von Akiem Helmling von der Schriftgestaltungsagentur Underware, dass Jede und Jeder lebenslang eine ganz persönliche Schrift bekommen kann, im Vergleich liebevoll verspielt. „Aber wie weit wollen wir eigentlich gehen mit neuen Anwendungen? Ich wünsche mir, dass wir nicht nur der Magie des Neuen unterliegen“, sagt Prof. Barbara Kotte, die an der HAWK Advertising Design lehrt. Gemeinsam mit Ko-Dozent Andreas Kreichelt und ihrem Kurs hat sie den Design-Zoom entwickelt und realisiert. „Wir müssen uns schleunigst mit ethischen Fragen und unserer eigenen Verantwortung beschäftigen und unsere Studierenden auf die Entwicklung vorbereiten. Auch das ist ein Ziel unseres Design-Zooms.“

Denn genaugenommen steht die nächste große Entwicklung vielleicht kurz bevor: die Vervielfältigung der Rechnerleistungen. Für Dr. Didier Stricker, Professor für Informatik an der TU Kaiserslautern und Leiter des Forschungsbereichs „Augmented Vision“, zeichnet sich ab: „Die Deep-Learning-Verfahren sind sehr mächtig und werden bisher noch auf PCs realisiert, also mit sehr großer Hardware. Aus meiner Sicht ist der nächste Schritt, dass jeweils für die drei Bereiche Grafik, Computing und neuronale Netzwerke Prozessoren in Mikrochips untergebracht werden können. Daraus wird eine neue Generation von Geräten entstehen, die viel intelligenter ist als heute.“ Auch Dr. Martin Brüchert vom Fraunhofer INT rechnet mit einem solchen Fortschritt. Hololux-Gründer Christian Glessner sieht in diesem Zusammenhang auch die Realisierung so genannter Quantencomputer als bahnbrechende Wende an, die ins Haus steht. Quantencomputer folgen in ihrer Hardware der Lehre der Quantenmechanik und sollen eine weitaus höhere Rechenleistung als aktuelle Super-Computer haben.

Was jetzt schon geht, konnten die Tagungsteilnehmer/innen bei einer kleinen interaktiven Ausstellung auf dem Campus schon mal am eigenen Leibe ausprobieren.

Zukunftsbremse Seniorenbildung

Bleiben 20 Millionen ältere Menschen bei der Digitalisierung außen vor?

warum das Ding mit der Telemedizin, der Onlinebehörden und den digiutalen Haushalten in Deutschland wieder zu spät durchschlägt? Weil die Gruppe mit der meisten Kohle zu wenig Plan hat, die Chancen zu nutzen. Wir brauchen es nicht idiotensicher, seniorensicher reicht.

Die Alterslücke wird nicht kleiner

Der Bremer Informatikprofessor Herbert Kubicek legt neue Forschungsergebnisse zur Alterslücke und einen Masterplan vor. In einem gerade zusammen mit Barbara Lippa veröffentlichten Buch erinnert er an die Tatsache, dass sehr viel weniger ältere Menschen als jüngere das Internet nutzen und rechnet vor, dass von den über 70-Jährigen in absoluten Zahlen mehr als 10 Millionen das Internet noch nie genutzt haben. Besorgniserregend sei dabei, dass sich der Abstand zwischen den Nutzungsquoten der Jungen und Alten, die sogenannte Alterslücke, seit 2001 in dieser Altersgruppe nicht verringert hat. Bisherige Maßnahmen haben also offensichtlich nicht die erhoffte Wirkung erzielt.

Senioren erfüllen sich ihre eignen Erwartungen nicht

Noch problematischer ist jedoch ein Ergebnis der von Kubicek geleiteten Studie der Stiftung Digitale Chancen in Kooperation mit Telefónica Deutschland „Nutzung und Nutzen des Internets im Alter“: Rund 400 Seniorinnen und Senioren konnten über Seniorentreffs und Begegnungsstätten für acht Wochen einen Tablet-PC ausleihen und ein Begleitangebot nutzen.

Der klassische Omaspruch: Von Nichts kommt nichts.

Sie wurden zu Beginn nach ihren Erwartungen und am Ende der Ausleihzeit zur tatsächlichen Nutzung befragt. Viele hatten erwartet, dass Ihnen die Tabletnutzung Wege erspare und sie auch länger selbständig bleiben könnten. Aber nur weniger als ein Viertel der Teilnehmenden hat dann tatsächlich online eingekauft oder andere Transaktionen vorgenommen. Die Autoren sprechen von höherschwelligen Anwendungen, die mit zunehmendem Alter seltener genutzt werden, obwohl sie gerade bei abnehmender Mobilität besonders nützlich sein können.

Real 20 Millionen Offliner – ein Viertel der Bevölkerung

Daher ist die Anzahl der älteren Menschen, die ohne gezielte Unterstützung die Chancen der Digitalisierung nicht nutzen können nach Kubicek sehr viel größer als die 10 Millionen Offliner. Sie umfasse auch mindestens 10 Millionen gelegentliche Minimalnutzer. Er ist daher davon überzeugt, die hohen Erwartungen an Entlastungen im Gesundheitsbereich durch Telemedizin und E-Health, würden sich aufgrund fehlender Akzeptanz unter älteren Menschen, ohne geeignete Unterstützungsangebote nicht erfüllen. Die Politik müsse erkennen, dass neben dem Breitbandausbau weitere Maßnahmen erforderlich sind. In den geführten Interviews haben Kubicek und Lippa festgestellt, dass das Haupthindernis ein doppeltes Vertrauensproblem ist. Wo junge Leute unbekümmert nach dem Prinzip Versuch und Irrtum neue Technik ausprobieren, haben ältere Menschen Zweifel, ob sie auftretende Probleme bewältigen können und verzichten im Zweifel auf die Nutzung. Der Hinweis auf Tabletkurse hilft da wenig, weil sie sich auch nicht zutrauen, in einem Kurs die notwendigen Kompetenzen zu erwerben. Die Ängste betreffen die technische Bedienung (Registrieren, sichere Passwörter, die man nicht aufschreiben soll etc.), aber auch die Frage, was bei falscher oder fehlerhafter Lieferung von Waren zu tun ist.

Die Autoren schlagen vor, auf diese Vorbehalte mit ganz anderen Konzepten und Angeboten zu reagieren: Statt Kursen mit heterogenen Gruppen, sollte Coaching in kleinen homogenen Gruppen angeboten werden, mit praktischen Übungen aber auch Hilfestellungen zum rechtlichen Verbraucherschutz. Ergänzend sollten regelmäßige Sprechstunden angeboten werden, wo ältere Menschen auch nach einem Training Hilfe bekommen. Das Buch enthält insgesamt zehn Grundsätze für die altersgerechte Förderung digitaler Kompetenzen.

Kompetenz und Selbstvertrauen kommen mit der Erfahrung

Wer sich die Problemlösung nicht zutraut, kauft sich kein Tablet und macht diese Erfahrungen nicht. Die Autoren sind der Überzeugung, das bundesweit in Kooperation mit Senioreneinrichtungen pilotartig erprobte Leihmodell mit den von Telefónica gestellten Tablets mit SIM-Karte, sei der Schlüssel zur Verringerung der Alterslücke. Die Stiftung Digitale Chancen hat daher einen Masterplan entworfen, der in dem Buch ausführlich erläutert und begründet wird. Die Bundesregierung soll 30.000 Seniorentreffs und 3.000 Seniorenheime mit jeweils 10 Tablet-PCs ausstatten, die diese für drei Monate zusammen mit einem geeigneten Begleitangebot an ihre Besucher bzw. Bewohner ausleihen. So kann in drei Jahren die zehnfache Anzahl an älteren Menschen ohne eigene Investitionen erste Erfahrungen sammeln und Selbstvertrauen gewinnen. Inklusive einem Training der Trainer werden die Kosten für eine solche bundesweite Aktion auf 50 Millionen Euro geschätzt. „Wenn Milliarden für die Schulen versprochen werden, dann sollte der Bundesregierung dieser Betrag für die zunehmende Zahl älterer Menschen Wert sein“. Diese haben Umfragen zufolge das Gefühl, Politik würde ihre Sorgen nicht erst nehmen, sondern vielmehr in Kauf nehmen, dass ihre Generation abgehängt werde, warnt Kubicek und verweist darauf, dass die aktuellen Sondierer die Chance haben, diesen Ängsten entgegenzuwirken.

Temporär geteilt? Nicht nur das Netz vergisst nie.

Bleibende Eindrücke auch bei temporär geteilten Selfies

Auch wenn Inhalte auf Social-Media-Plattformen wie beispielsweise Instagram Stories oder Snapchat nur temporär geteilt werden, sollte man sich gut überlegen, was man posten will. Denn der Eindruck bleibt bestehen, wie eine Studie zeigt.

Wurden Inhalte einmal in sozialen Medien geteilt, dann können sie nur sehr schwer oder gar nicht mehr zurückgenommen werden. Ein feuchtfröhliches Partyfoto, das auf positive Reaktionen in sozialen Medien stösst, wird den Protagonistinnen und Protagonisten Jahre später bei der Stellensuche allenfalls zum Verhängnis. Tatsächlich gaben bei einer in den USA durchgeführten Umfrage 93 Prozent der Personalmanagerinnen und -manager an, Stellensuchende auch nach deren Präsenz auf sozialen Medien zu beurteilen. Was dabei zum Vorschein komme, habe einen direkten Einfluss auf die Anstellungschancen.

Plattformen mit grosser Beliebtheit

Hier kommen „vergängliche“ soziale Medien wie Snapchat oder Instagram Stories, worauf Inhalte nach einer kurzen Zeit automatisch wieder gelöscht werden, wie gerufen. Auf den ersten Blick erscheint die Vergänglichkeit der Daten als Wundermittel, welches dem Drang sich mitzuteilen und der Wahrung der Privatsphäre gleichermassen entgegenkommt. Tatsächlich werden solche Plattformen immer beliebter, was sich in den Nutzerzahlen beispielsweise von Snapchat (150 Millionen) und Instagram Stories (250 Millionen) zeigt. Letztlich können Inhalte, die nicht mehr existieren, uns später nicht mehr zu schaffen machen, so die gängige Meinung.

Oder doch? Eine verhaltenswissenschaftliche Untersuchung von Forschern der Universität Luzern und der Harvard University weist darauf hin, dass auch Vergänglichkeit kein Allheilmittel gegen die Herausforderungen, die soziale Medien mit sich bringen, ist. Erste Eindrücke bleiben lange haften, auch wenn diese falsch sind. Folglich kann etwa ein indiskretes temporär geteiltes Foto einen längerfristig bleibenden negativen Eindruck hinterlassen – über dessen digitalen Lebenszyklus hinaus.

Inhalt ausschlaggebend, nicht Kanal

Zusätzlich fanden die Wissenschaftler heraus, dass die Betrachterinnen und Betrachter Indiskretionen direkt auf das Urteilsvermögen der Person beziehen, welche das Foto geteilt hat. Sie berücksichtigen dabei nicht, dass das Foto nur kurzzeitig geteilt wurde, was jedoch aus Sicht der Teilenden die Indiskretion entschuldigt. Solche Asymmetrien in der Beurteilung des Verhaltens anderer sind in der Sozialpsychologie bereits hinreichend dokumentiert: Betrachter beziehen das Verhalten von Akteurinnen und Akteuren auf deren Persönlichkeitsmerkmale und nicht auf situative Faktoren; und Akteure genau umgekehrt. Folglich wird der Eindruck, der beim Betrachter des Fotos entsteht, primär vom Inhalt auf dem Foto beeinflusst und weniger davon, auf welcher Plattform das Foto genau geteilt wurde. Diese Asymmetrie stellt eine Herausforderung für die Selbstpräsentation in sozialen Medien dar, vor allem wenn die Teilenden sich dessen nicht bewusst sind. Diese Problematik wird dadurch verstärkt, dass die Vergänglichkeit von Daten das Teilen von sensiblen Inhalten generell noch fördert.

Tipp: „längerfristig überlegen“

Reto Hofstetter, Professor für Betriebswirtschaftslehre an der Wirtschaftswissenschaftlichen Fakultät der Universität Luzern und Ko-Autor der Studie „Temporary Sharing Prompts Unrestrained Disclosures that Leave Lasting Negative Impressions“, rät deshalb: „Auch beim Teilen von Inhalten über Snapchat und Instagram Stories sollte man sich den möglichen längerfristigen Konsequenzen bewusst sein.“ Aus der Studie werde ersichtlich, dass der Eindruck beim Betrachter haften bleibe, auch nachdem das Foto nicht mehr verfügbar ist. „Zusätzlich achten die Betrachter weniger darauf, wie geteilt wird – ob auf einer temporären oder einer permanenten Plattform –, sondern vielmehr darauf, was geteilt wird.“ Unangemessene Inhalte würden deshalb nicht automatisch akzeptiert, nur weil diese über Snapchat oder Stories geteilt wurden. „Kurz zusammengefasst: Temporäre Inhalte können permanent in schlechter Erinnerung bleiben.“

Ein Stück näher am Quantencomputer

Du denkst, Du blickst durch? Teleportation ist was aus dem SciFi und digitale Informationsübertragung braucht auf große Entfernung so etwas wie ein Kabel oder wenigstens Satelliten und Funk? Fang schon mal an, Dich daran zu gewöhnen, dass das in zwanzig Jahren Schnee von heute ist. Eine gar nicht ferne Computergeneration wird mit verschränkten Quanten arbeiten.

Das „Dass“ ist schon nicht mehr Gegenstand der Forschung. Es geht seit langem um das „Wie“.

Wissenschaftler am Max-Planck-Institut für Quantenoptik erreichen mit neuer Speichertechnik für photonische Quantenbits Kohärenzzeiten, welche die weltweite Teleportation von Quanteninformation ermöglichen.

Lange Speicherung photonischer Quantenbits für globale Teleportation

Bei der Erforschung von Quantenspeichern zur Realisierung globaler Quantennetzwerke ist Forschern der Abteilung Quantendynamik von Prof. Gerhard Rempe am Max-Planck-Institut für Quantenoptik ein wesentlicher Durchbruch gelungen: auf einem einzelnen, in einem optischen Resonator gefangenen Atom konnten sie ein photonisches Quantenbit über ein Zeitraum von mehr als 100 Millisekunden speichern (Nature Photonics, 11. Dezember 2017). Speicherzeiten dieser Größenordnung sind Voraussetzung für den Aufbau eines Quantennetzwerkes, in dem die Quanteninformation durch Teleportation auf die diversen Netzknoten verteilt wird. „Die von uns erzielten Kohärenzzeiten bedeuten eine Verbesserung um zwei Größenordnungen bezogen auf den gegenwärtigen Stand der Technik“, betont Prof. Rempe.

Licht ist ein idealer Träger für Quanteninformationen, doch beim direkten Transport über große Distanzen gehen wertvolle Quantenbits verloren. Einen möglichen Ausweg bietet hier die Teleportation des Quantenbits zwischen den Endknoten eines Quantennetzwerkes. Hierfür wird zunächst „Verschränkung“ zwischen den Knoten erzeugt; mit Hilfe dieser „spukhafte Fernwechselwirkung“ wird das Quantenbit bei einer geeigneten Messung auf dem Senderknoten „instantan“, d.h., mit sofortiger Wirkung, zum Empfängerknoten übertragen. Dort kann es allerdings „verdreht“ ankommen, so dass es erst entsprechend zurückgedreht werden muss. Die dafür benötigte Information muss vom Senderknoten zum Empfänger auf klassischem Weg geschickt werden. Es dauert also eine gewisse Zeit, bis sie den Empfänger erreicht hat, und solange muss das Quantenbit dort gespeichert werden. Für zwei maximal weit auseinanderliegende Netzknoten auf der Erde entspricht das einer Zeitspanne von mindestens 66 Millisekunden.

Was issn Quantencomputer?

 

Bereits vor ein paar Jahren hat die Gruppe von Prof. Rempe eine Technik entwickelt und erfolgreich erprobt, die in einem Photon kodierte Quanteninformation auf einem einzelnen Atom zu speichern. Dazu wird ein Rubidiumatom im Zentrum eines von zwei Spiegeln höchster Güte (Abstand 500 Mikrometer) gebildeten optischen Resonators plaziert und von zwei stehenden Lichtwellen – parallel und senkrecht zur Resonatorachse – festgehalten. In diesen Resonator schickt man einzelne Lichtquanten, auf denen Quanteninformation in Form einer kohärenten Überlagerung von rechts- und linksdrehendem Polarisationszustand kodiert ist. Durch die zig-tausendfache Reflexion eines Photons im Resonator erhöht sich dessen Lichtfeld so stark, dass es mit dem Atom effektiv in Wechselwirkung treten kann.

Zeitgleich mit der Ankunft des Photons im Resonator wird ein Laserkontrollpuls geschaltet, der die Übertragung und Speicherung der photonischen Quanteninformation in Gang setzt. Dabei werden die beiden Polarisationszustände des Photons auf zwei bestimmte Energieniveaus im Atom abgebildet. Die Frage ist nun, wie lange die kohärente Superposition der atomaren Zustände erhalten bleibt. Dies gelang in den früheren Experimenten nur für die Dauer von einigen hundert Mikrosekunden.

„Unser generelles Problem bei der Speicherung von Quanteninformation ist die sogenannte Dephasierung“, erklärt Stefan Langenfeld, Doktorand am Experiment. „Wesentlich für Quanteninformation ist die Phasenbeziehung der Wellenfunktionen der beiden Energiezustände, die kohärent überlagert sind. In der Praxis geht die Phasenbeziehung der atomaren Superposition im Laufe der Zeit verloren, vor allem aufgrund von Wechselwirkung mit magnetischen Feldfluktuationen.“

Grafik: Christoph Hohmann, Nanosystems Initiative Munich (NIM)

Deshalb ergreifen die Wissenschaftler in ihrem neuen Experiment eine zusätzliche Maßnahme: kaum, dass die Übertragung der Information von Lichtquant auf Atom stattgefunden hat, wird mit einem weiteren Laserstrahl im Atom ein Raman-Übergang induziert, der die Population eines der Energieniveaus kohärent auf ein anderes überträgt. Die resultierende Konfiguration ist etwa 500mal unempfindlicher gegenüber Magnetfeldfluktuationen.

Zum Auslesen des Quantenbits wird der Raman-Übergang rückwärts durchlaufen, und das photonische Quantenbit wird in Bezug auf seine Eigenschaften genauestens untersucht. Die Messungen ergeben eine Übereinstimmung von ca. 90 % mit dem ursprünglichen Photon, und das für Speicherzeiten von 10 Millisekunden. Allein durch die vorübergehende Verschiebung der atomaren Population gelingt also eine mehr als 10fache Steigerung der Kohärenzzeit. Einen weiteren Faktor 10 schaffen die Wissenschaftler mit der sogenannten „Spin-Echo“-Technik. Dabei wird nach genau der Hälfte der Speicherzeit die Population der beiden atomaren Energieniveaus ausgetauscht. „Wir können damit die Quantennatur des gespeicherten Bits über einen Zeitspanne von mehr als 100 Millisekunden lang erhalten“, betont Matthias Körber, Doktorand am Experiment. „Die Vision eines weltumspannenden Quantennetzwerkes wird die abhörsichere und verlustfreie Übertragung von Quanteninformationen ermöglichen. Auch wenn bis zu ihrer tatsächlichen Realisierung noch viel Forschungsarbeit geleistet werden muss, sind langlebige Quantenspeicher doch eine der Kerntechnologien, und deren aktueller Fortschritt bringt uns hoffentlich dem Ziel ein signifikantes Stück näher.“ Olivia Meyer-Streng

Erfolgreicher Unterricht ist digital

– aber nicht ausschließlich

Studien belegen: keine Studierendengruppe ist so technikfeidlich, wie Lehramtsstudierende. Weder wollen sie mit Hilfe digitaler Techniken unterrichtet werden, noch wollen sie diese später einsetzen. Nicht alle natürlich aber deutlich die Mehrhheit. Damit ist gar nicht die Problematik gemeint, dass zu viele Kids zu lange am Smartphone sitzen und „recherchieren“ würden. Dabei geht es um den von Lehreräften kontrollierten Einsatz der Technik. Grob könnte man meinen, die zukünftigen Lehrenden wollen den noch zukünftigeren Technikusern die Anwendung und das Erlernen des Umgangs damit verweigern.

Dabei ist es wie fast immer:

Auf die Mischung kommt es an.

Schülerinnen und Schüler erzielen in Naturwissenschaften und Mathematik bessere Leistungen und sind motivierter, wenn im Unterricht digitale Medien eingesetzt werden. Allerdings hängt der Erfolg von der Gestaltung der Mediennutzung ab. Er ist größer, wenn Kinder und Jugendliche nicht allein lernen und wenn weiterhin auch traditionelles Lernmaterial verwendet wird. Dies zeigt eine der größten Untersuchungen zum Thema, die rund 80 Einzelstudien ausgewertet hat. Damit die Erkenntnisse in den Schulen angewandt werden können, sind sie in einer Broschüre für die Praxis aufbereitet.

Die Digitalisierung des Schulunterrichts wird seit Jahren heiß diskutiert. Wann, wie oft und welche Programme sollen Lehrerinnen und Lehrer am Computer einsetzen? Dazu gibt es eine schwer zu überschauende Fülle an Forschungsprojekten. Das Zentrum für internationale Bildungsvergleichsstudien (ZIB) an der Technischen Universität München (TUM) hat nun im Auftrag der Kultusministerkonferenz 79 Studien ausgewertet, die seit 2000 weltweit erschienen sind. Die Metastudie wird heute auf der Tagung „Bildungsforschung, Politik und Schule im Diskurs“ in Berlin vorgestellt.

Die Untersuchung zeigt: Schülerinnen und Schüler aus Klassen, in denen mit digitalen Unterrichtsmedien gearbeitet wird, erzielen bessere Leistungen als Kinder und Jugendliche aus Klassen, die traditionell unterrichtet werden. Außerdem sind sie motivierter für das jeweilige Fach. Dies gilt für alle Jahrgangsstufen höherer Schulen (Sekundarbereich) und für alle untersuchten Fächer, also Mathematik, Biologie, Chemie und Physik.

Allerdings garantieren digitale Materialien an sich noch keinen Erfolg. Ihre Wirkung auf Leistung und Motivation hängt davon ab, wie sie im Unterricht eingesetzt werden:

– Kinder und Jugendliche profitieren von digitalen Unterrichtsmedien stärker, wenn sie nicht allein, sondern in Paaren arbeiten. Die Forscherinnen und Forscher gehen davon aus, dass Computerprogramme in besonderer Weise Gespräche zwischen ihnen anregen, die das Lernen fördern.

– Schülerinnen und Schüler erzielen bessere Leistungen, wenn sie bei der Arbeit mit Digitalmaterial von Lehrkräften begleitet werden. Arbeiten sie vollkommen selbstständig mit Computerprogrammen, ist deren positiver Effekt gering.

– Die erwünschte Wirkung digitaler Medien ist größer, wenn sie klassische Unterrichtsmaterialien nicht vollständig ersetzen. Erfolgversprechend ist, sie ergänzend zu analogen Methoden zu verwenden.

– Digitale Medien steigern die Leistungen stärker, wenn sie von professionell geschulten Lehrerinnen und Lehrern in den Unterricht integriert werden.

Auch gut gemachte Programme können Lehrkräfte nicht ersetzen

„Digitale Medien sollten im Unterricht mit Augenmaß eingebaut werden“, sagt Prof. Kristina Reiss, Leiterin des ZIB und Dekanin der TUM School of Education. „Es würde über das Ziel hinaus schießen, bewährte analoge Formate zu verbannen. Außerdem sehen wir, dass auch sehr gut gemachte Lernprogramme nicht die Lehrerinnen und Lehrer ersetzen können.“

Bei einem durchdachten Einsatz könnten die Vorteile digitalen Materials gerade bei komplexen und abstrakten Inhalten in Naturwissenschaften und Mathematik voll zur Geltung kommen, beispielsweise mit der Visualisierung chemischer Verbindungen und geometrischer Formen.

„Wenn mit neuen Unterrichtsmethoden darüber hinaus die Motivation der Schülerinnen und Schüler erhöht wird, ist das eine große Chance für die MINT-Fächer“, betont Reiss. Die jüngste PISA-Studie hatte gezeigt, dass Jugendliche in Deutschland vergleichsweise wenig an Naturwissenschaften in Schule und Beruf interessiert sind.

Manche Digitalmedien nutzen mehr als andere

Die Metastudie zeigt auch, welche Typen digitaler Medien Erfolg versprechen. Die größte positive Wirkung haben sogenannte intelligente Tutorensysteme. Dabei handelt es sich um Programme, die Inhalte in kleinen Einheiten vermitteln und Übungen ermöglichen. Entscheidend ist, dass sie sich mit Geschwindigkeit, Schwierigkeitsgrad und Hilfestellungen an die Kompetenzen der Nutzerinnen und Nutzer anpassen. Vergleichsweise wenig wirksam sind Hypermediasysteme, die mit Video-, Audio- und Textmaterial auf ein freies Erkunden ausgelegt sind, ohne dass die Anwendungen ein Lernziel vorgeben.

Broschüre für die Schulpraxis:

Der Auftrag für die Publikation geht auf die Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring zurück. In diesem Rahmen hat die KMK das ZIB beauftragt, eine Pilot-Forschungssynthese zum vorliegenden Thema zu erstellen. Darauf aufbauend werden in den nächsten Jahren weitere Forschungssynthesen erstellt, um auch zu anderen Themen wissenschaftliche Erkenntnisse für die Schulpraxis nutzbar zu machen.

Das ZIB hat die Metastudie in einer Broschüre für Schulpraktikerinnen und -praktiker aufbereitet. Neben einer übersichtlichen Darstellung der Ergebnisse werden Beispiele für den erfolgreichen Einsatz digitaler Medien geschildert. Außerdem kommen erfahrene Lehrerinnen und Lehrer zu Wort, die in Zusammenarbeit mit dem Institut für Schulqualität und Bildungsforschung (München) befragt wurden.

Erkenntnisse der Bildungsforschung für die Schulpraxis nutzbar zu machen, ist ein wesentliches Ziel der ZIB-Partner, neben der TUM das Deutsche Institut für Internationale Pädagogische Forschung und das Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik. Vor wenigen Monaten ist das Clearing House Unterricht der TUM School of Education online gegangen, eine Plattform, die den aktuellen Forschungsstand zu konkreten Fragen aus dem Schulalltag verständlich zusammenfasst.