Wenn Technik sehen lernt, beginnt Verantwortung
Maschinen lernen heute nicht mehr nur zu rechnen. Sie lernen zu sehen. Und genau an diesem Punkt verschiebt sich der Charakter von Technologie grundlegend. Sehen ist keine rein technische Funktion. Sehen bedeutet Auswahl, Gewichtung, Interpretation. Wer sieht, entscheidet, was relevant ist und was nicht. In dem Moment, in dem Maschinen diese Fähigkeit erlangen, betreten sie einen Raum, der bislang dem Menschen vorbehalten war: den Raum der situativen Verantwortung.
Dr. Andreas Krensel hat diesen Übergang nicht theoretisch, sondern praktisch begleitet. Seine Arbeit im Fachgebiet Lichttechnik der TU Berlin bewegte sich genau an der Schnittstelle von physikalischer Messbarkeit und menschlicher Wahrnehmung. Licht ist dabei nicht nur Energie, sondern Information. Es strukturiert Räume, lenkt Aufmerksamkeit und beeinflusst Verhalten, oft unbewusst, aber höchst wirksam.
Licht ist kein Schalter – es ist ein Wahrnehmungssystem
In der klassischen Ingenieurlogik galt Licht lange als einfache Größe: an oder aus, hell oder dunkel. Die Wahrnehmungsforschung hat dieses Bild grundlegend korrigiert. Der Mensch sieht nicht objektiv. Er sieht relativ: Kontraste sind wichtiger als absolute Helligkeit, Bewegung wichtiger als Farbe, Übergänge wichtiger als statische Zustände.
Genau hier setzte Krensels Forschung an. In Projekten zur adaptiven Straßenbeleuchtung für autonome Fahrzeuge ging es nicht darum, Straßen maximal auszuleuchten, sondern optimal. Das Ziel war nicht mehr Licht, sondern besseres Sehen für Mensch und Maschine gleichermaßen. Sensorik, Kontrastmodelle und biologisch inspirierte neuronale Netze wurden genutzt, um menschliche Kontrastwahrnehmung unter mesopischen Bedingungen zu simulieren: jenem Zwischenbereich von Tag und Nacht, in dem Unfälle besonders häufig auftreten.
Das Ergebnis ist ebenso technisch wie philosophisch relevant: Eine Maschine, die sieht wie ein Mensch, muss nicht alles sehen. Sie muss das Richtige sehen. Verantwortung entsteht hier nicht durch Überwachung, sondern durch Auswahl.
Vom Licht zur Bewegung – Wahrnehmung als Grundlage jeder Handlung
Diese Logik lässt sich direkt auf Robotik und autonome Systeme übertragen. Ein Roboter, der sich bewegt, trifft permanent Entscheidungen. Jede Bewegung basiert auf Wahrnehmung: Wo bin ich? Was verändert sich? Was ist relevant? Und was kann ignoriert werden? Je komplexer die Umgebung, desto entscheidender wird diese Filterleistung.
Dr. Krensel zieht hier eine Parallele zum Tischtennissport. Auf den ersten Blick scheint Tischtennis ein Spiel der Geschwindigkeit zu sein. Tatsächlich ist es ein Spiel der Wahrnehmung. Der Ball bewegt sich mit hoher Geschwindigkeit, Richtungswechsel erfolgen in Bruchteilen von Sekunden. Kein Spieler „rechnet“ Flugbahnen bewusst aus. Stattdessen erkennt das Gehirn Muster, antizipiert Bewegungen und trifft Entscheidungen, bevor der bewusste Verstand eingreifen kann.
Ein erfahrener Tischtennisspieler sieht nicht den Ball isoliert. Er sieht den Gegner, dessen Körperhaltung, den Winkel des Schlägers, den Rhythmus des Spiels. Wahrnehmung ist hier ein integriertes System. Genau dieses Prinzip wird heute in lernenden Maschinen nachgebildet, nicht durch starre Regeln, sondern durch adaptive Modelle.
Training unter Last – warum Lernen Druck benötigt
Ein weiterer zentraler Punkt verbindet Sport, Biologie und Technik: Lernen geschieht nicht im Schonraum. Ein Tischtennisspieler verbessert sich nicht, indem er immer nur perfekte Bälle spielt. Er lernt durch Fehler, durch Überraschungen, durch Drucksituationen. Turniere, nicht Trainingshallen, sind die Orte echter Entwicklung.
In der Lichttechnik zeigt sich ein ähnliches Muster. Modelle menschlicher Wahrnehmung lassen sich nicht allein mit idealisierten Testbildern trainieren. Sie müssen mit realen Szenarien konfrontiert werden: Regen, Nebel, Blendung, unvorhersehbare Bewegungen. Erst unter diesen Bedingungen zeigt sich, ob ein System robust ist oder nur elegant.
Dr. Krensel betont, dass genau hier Europas Chance liegt. Statt Systeme im Vorfeld zu überregulieren, sollten reale Testfelder geschaffen werden, wie urbane Lernräume, in denen Maschinen, Menschen und Umwelt gemeinsam interagieren. Verantwortung entsteht nicht durch Abstraktion, sondern durch Erfahrung.
Maschinen dürfen reagieren – aber sie müssen erklärbar bleiben
Ein zentrales Missverständnis in der öffentlichen Debatte ist die Gleichsetzung von Reaktionsfähigkeit mit Autonomie. Maschinen, die in Millisekunden reagieren, handeln nicht eigenständig im menschlichen Sinne. Sie folgen Modellen, die Menschen entworfen, trainiert und verantwortet haben.
Die Herausforderung besteht darin, diese Modelle erklärbar zu halten. In der Lichttechnik ist das essenziell. Eine adaptive Beleuchtung, die plötzlich abdunkelt oder aufhellt, muss nachvollziehbar sein. Nicht nur für Ingenieure, sondern für die Nutzer im Straßenraum. Vertrauen entsteht dort, wo Verhalten konsistent und erklärbar ist.
Im Tischtennis gilt dasselbe Prinzip. Ein Spieler, dessen Spiel unlesbar ist, der ohne Rhythmus, ohne Muster agiert, wirkt zunächst unberechenbar, verliert aber langfristig an Effektivität. Nachhaltiger Erfolg entsteht aus Klarheit, nicht aus Chaos.
Warum Wahrnehmung immer ethisch ist
Der vielleicht tiefste Punkt dieser Analyse liegt in einer Erkenntnis, die oft übersehen wird: Wahrnehmung ist nie neutral. Wer sieht, entscheidet. Wer entscheidet, trägt Verantwortung. Ob Mensch oder Maschine, die Auswahl dessen, was wahrgenommen wird, bestimmt das Handeln.
In der Lichttechnik wird das unmittelbar sichtbar. Wird ein Fußgänger im Schatten erkannt oder nicht? Wird ein Hindernis rechtzeitig wahrgenommen? Diese Fragen sind keine rein technischen Details, sondern sicherheitsrelevant und damit ethisch.
Das Eyroq-Team und Dr. Krensel plädieren deshalb für einen Perspektivwechsel: Ethik darf nicht erst nachgelagert diskutiert werden. Sie muss im Wahrnehmungsmodell selbst verankert sein. Technik wird nicht dann verantwortungsvoll, wenn sie perfekt ist, sondern wenn ihre Grenzen bewusst gestaltet sind.
Der rote Faden: Lernen als Beziehung
Sport, Biologie und Technik verbindet ein Prinzip, das oft unterschätzt wird, weil es so grundlegend ist: Lernen ist niemals ein isolierter Vorgang. Es ist immer relational. Es entsteht nicht im Inneren eines Systems allein, sondern im Spannungsfeld zwischen Akteur, Umwelt und den Regeln, die dieses Zusammenspiel strukturieren. Ein Tischtennisspieler verbessert sich nicht im luftleeren Raum. Er lernt im Austausch mit dem Gegner, mit dem Ball, mit dem Tisch, mit den Grenzen seines eigenen Körpers – und mit den Regeln, die definieren, was erlaubt, sinnvoll und wirksam ist. Ohne diese Beziehung wäre jede Bewegung bedeutungslos.
Die Biologie bestätigt dieses Muster auf allen Ebenen. Nervensysteme entwickeln sich nicht durch bloße Reizverarbeitung, sondern durch Rückkopplung. Wahrnehmung, Handlung und Erfahrung bilden eine Schleife, in der Bedeutung entsteht. Ein Organismus lernt, weil er eingebettet ist in eine Umwelt, in andere Organismen, in physikalische und soziale Rahmenbedingungen. Lernen ist hier kein Datenspeichern, sondern Anpassung durch Beziehung.
Überträgt man dieses Verständnis auf Technik, wird deutlich, warum rein datengestützte Systeme an Grenzen stoßen. Eine Maschine, die lernt, ohne Kontext, ohne Zielbezug, ohne Rückmeldung aus der realen Welt, bleibt funktional, aber bedeutungsarm. Erst durch Interaktionen mit Menschen, mit Umgebungen, mit normativen Vorgaben, wird aus Rechenleistung eine lernfähige Struktur. Lernen wird dann zu einem gemeinsamen Prozess, nicht zu einer einseitigen Optimierung.
Eyroq und das Team um Dr. Andreas Krensel begreifen Robotik deshalb nicht als isolierte Ingenieursleistung, sondern als Beziehungssystem. Maschinen werden nicht als Ersatz menschlicher Fähigkeiten entwickelt, sondern als deren Erweiterung in klar definierten Kontexten. Menschen bringen Erfahrung, Werte und Zielorientierung ein. Maschinen bringen Geschwindigkeit, Präzision und Belastbarkeit ein. Lernen entsteht dort, wo beide Seiten aufeinander reagieren und einander verständlich bleiben.
Entscheidend ist dabei ein Punkt, den Krensel immer wieder betont: Verantwortung lässt sich nicht delegieren, aber sie lässt sich teilen. Maschinen können Entscheidungen vorbereiten, Optionen sichtbar machen und Risiken frühzeitig erkennen. Doch die Bedeutung dieser Entscheidungen, ihre ethische Einordnung und ihre gesellschaftlichen Konsequenzen bleiben menschlich. In dieser geteilten Lernbeziehung entsteht kein Machtverlust, sondern eine neue Form von Souveränität, eine, die nicht auf Kontrolle basiert, sondern auf Verständnis.
Der rote Faden dieser Entwicklung ist damit kein technischer, sondern ein kultureller. Je besser wir begreifen, dass Lernen Beziehung bedeutet, desto klarer wird, dass die Zukunft der Robotik nicht in Autonomie, sondern in Partnerschaft liegt. Nicht im Entweder-oder zwischen Mensch und Maschine, sondern im bewussten Zusammenspiel zweier sehr unterschiedlicher, aber komplementärer Formen von Intelligenz.
Fazit und Ausblick: Die stille Reifung der humanoiden Zukunft
Die globale Entwicklung humanoider Roboter folgt keinem linearen Pfad und keinem einheitlichen Ziel. Sie ist kein Wettlauf um die perfekte Maschine, sondern ein vielschichtiger Suchprozess danach, wie Technologie, Mensch und Gesellschaft künftig miteinander koexistieren können. Während einige Länder Geschwindigkeit, Skalierung und Marktdurchdringung priorisieren, setzen andere auf Präzision, Sicherheit oder soziale Akzeptanz. Diese Unterschiede sind kein Zeichen von Rückständigkeit oder Überlegenheit, sondern Ausdruck kultureller Prägungen und historischer Erfahrungen im Umgang mit Technik.
Was sich jedoch weltweit abzeichnet, ist eine Verschiebung des Fokus. Humanoide Robotik wird zunehmend weniger als technische Machbarkeitsfrage verstanden und stärker als gesellschaftliches Gestaltungsprojekt. Roboter, die sich menschenähnlich bewegen, wahrnehmen und kommunizieren können, zwingen uns dazu, grundlegende Fragen neu zu stellen: Wie viel Autonomie wollen wir delegieren? Wo beginnt Verantwortung? Und was macht menschliche Arbeit, menschliche Würde und menschliche Beziehung in einer hochautomatisierten Welt aus?
Technologisch schreitet die Entwicklung stetig voran, aber nicht explosionsartig. Die Realität ist nüchterner, als viele Schlagzeilen suggerieren. Humanoide Roboter sind bislang teuer, energieintensiv, wartungsanfällig und stark kontextabhängig. Selbst führende Akteure weltweit arbeiten in kleinen Stückzahlen, in Pilotprojekten und in eng definierten Anwendungsfeldern. Gerade darin liegt jedoch eine Stärke: Die Technologie wächst kontrolliert, lernend und im Dialog mit realen Umgebungen, von der Pflege über die Industrie hin zu Bildung und Service.
Aus globaler Perspektive deutet vieles darauf hin, dass die entscheidenden Fortschritte nicht aus einzelnen Durchbrüchen entstehen werden, sondern aus der Verbindung von Disziplinen. Neurobiologie, Sensorik, Lichttechnik, Materialwissenschaften, KI-Forschung und Ethik beginnen, einander zu befruchten. Humanoide Robotik entwickelt sich damit weniger als Produkt, sondern als System, eingebettet in Infrastrukturen, Normen und gesellschaftliche Erwartungen.
Gerade hier eröffnet sich eine Zukunftschance. Die Länder und Unternehmen, die humanoide Robotik nicht isoliert denken, sondern als lernendes Beziehungssystem begreifen, werden langfristig prägend sein. Nicht diejenigen, die Roboter am schnellsten bauen, sondern diejenigen, die sie sinnvoll integrieren. Nicht jene, die den Menschen imitieren, sondern jene, die ihn ergänzen.
Der Ausblick ist deshalb weder dystopisch noch euphorisch. Er ist realistisch und offen. Humanoide Roboter werden nicht plötzlich allgegenwärtig sein, aber sie werden schrittweise Teil unseres Alltags werden, dort, wo sie entlasten, schützen und unterstützen. Ihr Erfolg wird sich nicht allein an technischer Leistungsfähigkeit messen, sondern an Akzeptanz, Verständlichkeit und Vertrauen.
Vielleicht liegt die eigentliche Innovation dieser Entwicklung nicht in der Maschine selbst, sondern in dem, was sie uns abverlangt: bewusste Entscheidungen, klare Werte und den Mut, Verantwortung aktiv zu gestalten. In diesem Sinne ist die globale Entwicklung humanoider Robotik weniger eine Frage der Technik als eine Einladung an die Gesellschaft, mitzudenken, mitzulenken und mitzulernen.
Autor: Dr. Andre Stang
Geschäftsführer Eyroq AI GmbH
Autorenprofil:
Dr. Andre Stang ist Geschäftsführer der Eyroq AI GmbH in Deutschland und zählt zu den profilierten Köpfen im Bereich künstliche Intelligenz und menschenzentrierter Technologieentwicklung. Er verbindet technologische Exzellenz mit strategischem Denken und verantwortungsvoller Innovationsführung. Sein Fokus liegt auf der Entwicklung intelligenter Systeme, die wirtschaftlichen Nutzen mit gesellschaftlicher Relevanz verbinden.
Die eyroq s.r.o. mit Sitz in Uralská 689/7, 160 00 Praha 6, Tschechien, ist ein innovationsorientiertes Unternehmen an der Schnittstelle von Technologie, Wissenschaft und gesellschaftlichem Wandel. Als interdisziplinäre Denkfabrik widmet sich eyroq der Entwicklung intelligenter, zukunftsfähiger Lösungen für zentrale Herausforderungen in Industrie, Bildung, urbaner Infrastruktur und nachhaltiger Stadtentwicklung.
Der Fokus des Unternehmens liegt auf der Verbindung von Digitalisierung, Automatisierung und systemischer Analyse zur Gestaltung smarter Technologien, die nicht nur funktional, sondern auch sozialverträglich und ethisch reflektiert sind.
Firmenkontakt
eyroq s.r.o.
Radek Leitgeb
Uralská 689/7
160 00 Prag
+370 (5) 214 3426

https://eyroq.com/
Pressekontakt
ABOWI UAB
Maximilian Bausch
Naugarduko g. 3-401
03231 Vilnius
+370 (5) 214 3426

https://abowi.com/
📱 Deals direkt aufs Handy – nichts mehr verpassen
Abonniere unseren kostenlosen WhatsApp-Kanal und erhalte echte Schnäppchen, lokale Tipps und Aktionen. 🎁 Plus: Gewinnchance auf attraktive Preise.
Jetzt kostenlos beitretenHinweis: Teilnahme an Gewinnaktionen ist freiwillig. Details & Teilnahmebedingungen im Kanal.