Zum Hauptinhalt springen
Thema: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now (1439-mal gelesen)
0 Benutzer und 2 Gäste betrachten dieses Thema.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 1
Der Artikel zeigt nochmal sehr schön das philosophische Dilemma, welchem Ausweg die KI wählen soll, wenn menschlicher Schaden unvermeidbar ist.

Ich denke auch nicht, dass das lösbar ist.

Die Lösung wird so aussehen, dass eine Vollvernetzung stattfinden muss, denn das Chaos verursacht eben der Mensch. Das heißt, es wird Zonen geben, wo man nur noch per Autopilot fahren darf. Das werden maßgeblich dichter besiedelte Gebiete sein, oder das Gegenteil wird stattfinden:
Zonen mit potenziellen Gefahren für Menschen, wie Cities werden eh nicht mehr befahren werden dürfen, außer vielleicht von Bussen und Taxis.
Außerhalb wird die Wahrscheinlichkeit eben gering und der Computer wird immer den Sicherheitsabstand einhalten und somit immer bremsen können. Wildunfälle und Betrunkene von Dorf-Festen sind dann - wie heute eben auch - einfach Pech und werden in der Statistik als dramatische Einzelfälle untergehen.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 2
Für Obamas Drohnenmorde braucht er das sicherlich nicht, Kollateralschäden stören da minder. Und wenn AI, dann allein um die Bevölkerung noch besser zu kontrollieren, deshalb muß am besten auch die Zahnbürste ins Internet funken können.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 3
Ich gebe zu, dass der harte Fall des Abwägens zwischen Opferzahlen in der Praxis nicht gerade häufig sein mag. Mein Gefühl ist, dass der Autor obigen Artikels dennoch von zwei fragwürdigen Voraussetzungen ausgeht, die das Problem in Folge dann trivialisieren:

1. Er nimmt implizit an, hochautomatisierte Autos machten keine Fehler. Wenn das wahr wäre, dann wäre seine Argumentation, das computerisierte Auto sei stets im Recht und könne rechtliche Folgen dementsprechend verlässlich abwenden indem es schlicht sein Right of way beibehält, zumindest in den USA wohl stichhaltig. Auf durchaus lange Zeit werden wir bei automatisierten Autos aber noch eklatante Probleme in den Wahrnehmungskomponenten zu verzeichnen haben. Und durch die Folgen fehlerhafter Wahrnehmung kann ein automatisiertes Fahrzeug durchaus schuldhaft in einen sich anbahnenden Unfall verwickelt sein. Unter diesen Umständen müsste es in allen mir bekannten Rechtssystemen alles tun, um die resultierende Unfallschwere maximal zu mindern. Sein Right of way existiert dann ohnehin nicht mehr und ein Wechsel auf andere Verkehrsflächen könnte durchaus eine vorteilhafte Strategie sein.

2. Zumindest in europäischen Rechtssystemen erhält derjenige, der zwar selbst nicht Unfallverursacher war, aber ihm als normalbegabter Fahrer mögliche und zumutbare Maßnahmen zur Unfallvermeidung oder -schwereminderung unterlassen hat, i.d.R. eine Mitschuld. Geht man nun davon aus, dass automatisierte Systeme zu wesentlich schnelleren Entscheidungen und Manövern in der Lage seien als der Mensch, so wird ein automatisiertes Fahrzeug regelmäßig auch dann eine "Mitschuld" an Unfällen zugesprochen bekommen, wenn es -wie vorgeschlagen- nicht aktiv auch schwierige und von durchschnittsbegabten menschlichen Fahrern nicht zu erwartende Ausweichmanöver durchführt. D.h., das beschriebene ethische Dilemma entsteht auch dann, wenn die eigentliche Unfallschuld nicht bei der automatisierten Fahrfunktion lag. Dass die Fahrfunktion bei geeigneter Programmierung die Folgen eines Unfalls hätte minimieren können, dies bei der vorliegenden Programmierung aber evtl. nicht oder nicht in dem möglichen Maße realisiert, ist hierfür hinreichend.

In einer weicheren Form stellt sich die Frage nach aktiver Abwägung zwischen automatisierten Manövern verschiedener Folgenschwere also durchaus; die übliche akademisch überspitzte Problemformulierung kann man dann als Anreiz sehen, diesem Problem tatsächlich Gedanken zu widmen.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 4
Fehler in der Erkennung werden aber nicht zu Unfällen mit anderen Fahrzeugen führen, sobald diese vernetzt sind. Die Erkennung ist ja erstmal nur notwendig, um individuell und dennoch autark fahren zu können.

Man versucht einen automatisierten Robotor so zu gestalten, dass er in allen chaotischen Situationen, die der Mensch in seiner "Freiheit" so schafft, stets perfekt reagiert.

Wer sich mit dem Begriff Perfektion auseinander setzt, wird feststellen müssen, dass es nur als Annäherung an selbige funktionieren kann.

Die Frage ist nun: Wer reagiert besser in diesen Situationen? Mensch oder Maschine?

Was der Mensch durch Erfahrung wett macht, kann die Maschine durch Reaktionszeit verbuchen.

Um auf die Punkte 1-2 einzugehen:

Zu 1.) Die Rechtsfrage ist natürlich gegeben, aber ebenso wie niemand wirklich bei technischem Versagen - zum Bsp. bei einem Bahnunfall oder bei einem geplatzten Reifen, der über einen spitzen Stein gefahren ist - belangt werden kann, wird es ebenso schwer  bei einem technischen Defekt in der Erkennungssoftware der Fall sein.
Ein Lösungsweg ist, nicht alles auf die Maschine abzuwälzen, sondern vor allem auch Randbedingungen zu schaffen, so dass diese Fahrzeuge Situationen und Hindernisse besser erkennen können. Das könnte damit anfangen, dass wir an der Fahrbahnbegrenzung arbeiten, so dass diese sicherer erkannt wird. Hey, manchmal sind die Straßen im Ruhrgebiet so schlecht, dass man nicht mal als Mensch erkennen kann, wo diese ist ;D Da gibt es sicher Möglichkeiten, dass man auf eine Sichterkennung verzichten und stattdessen bessere Möglichkeiten zur Erkennung schafft. Weiß nicht. Was Kapazitives oder Spezialfarbe.
Um Unfälle in Innenstädten vorzubeugen wo sich viele Fußgänger aufhalten, könnte man sich Japan zum Vorbild nehmen, die dort Leitplanken an Gehwegen einsetzen.
Hat zwei Vorteile: Es laufen nicht irgendwelche Leute durch den laufenden Verkehr, weil sie keine Lust haben, die 10m zur nächsten Fußgängerampel zu laufen und Fahrzeuge können sich den Gehweg nicht zu nutze machen, bzw. bei Kontrollverlust ungebremst in eine Menge reinfahren.

Zu 2.) Auch hier: Durch die Vernetzung wird auch der Unfallhergang klarer werden und sich im Verkehrsfluss einiges ändern. Punkte wie Sicherheitsabstand, korrekte und vor allem angepasste Geschwindigkeit wird von den Systemen immer eingehalten. Das System denkt nicht, es wüsste alles besser und projeziert auch nicht die emotionale/irrationale Weltanschauung des Fahrzeugführers auf andere Verkehrsteilnehmer. Der Mensch wird immer mehr zum Störfaktor, je mehr dieser Fahrzeuge sich im Straßenverkehr bewegen.
Die Rechtslage wird sich dementsprechend anpassen müssen.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 5
Das wäre dann die Diktatur der Maschine.

Eigentlich dachte ich, soll die Technik dem Menschen dienen, aber in obigen Szenarios ist der Mensch eher eine unerwünschte Störgröße, das kann ich nicht gut finden

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 6
Fehler in der Erkennung werden aber nicht zu Unfällen mit anderen Fahrzeugen führen, sobald diese vernetzt sind.
Das sehe ich anders, weil die Software nie fehlerfrei ist.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 7
Das wäre dann die Diktatur der Maschine.

Eigentlich dachte ich, soll die Technik dem Menschen dienen, aber in obigen Szenarios ist der Mensch eher eine unerwünschte Störgröße, das kann ich nicht gut finden

Hm, ich glaube, das nicht dass man das so sehen kann. Stell es dir eher vor wie ein Werkzeug, eine Erleichterung. Die Dikatur der Maschine ist es, wenn sie uns diktiert, wie wir zu leben haben. In diesem Fall dient sie nach wie vor, dich und mich von A nach B zu bringen.
Ich wollte darauf hinaus, dass der Mensch durch seine irrationale Art Dinge anzugehen, negativ die Effizienz des Straßenverkehrs beeinflusst und die Vernetzung abgesehen von anderen Gefahren Ordnung ins Chaos bringt. Weniger Chaos heißt auch weniger Gefährdung, weniger Unfälle.

Beispiele: Geschwindigkeitsüberschreitung, Egoismus beim Einfädeln, Sicherheitsabstand, Blinker, und ich kann die Liste noch unendlich ergänzen, was täglich zu Frust und Staus führt.
In der Petrolheadromatik ist das noch so die letzte Bastion der Freiheit, aber wenn wir ehrlich sind, hat das auf den immer voller werdenden Straßen keinen Platz mehr.

Das sehe ich anders, weil die Software nie fehlerfrei ist.

Aber die Software arbeitet anders als der Mensch nicht nach Willkür, sondern anhand von bestimmbaren Parametern. Dadurch wird das Verhalten vorhersehbar.
Davon ab ist auch der Mensch alles andere als fehlerfrei. Der Beleg dafür ist die aktuelle Unfallstatistik, die zuletzt 2015 höher ausgefallen ist, als die Jahre davor.

Ich will hier nicht pro Autarkes Fahren missionieren und wir müssen auch nicht einer Meinung sein, aber die Alternative dazu sieht auch nicht besser aus. Die ist nämlich mehr Stau, kommende Maut für Innenstädte und später wahrscheinlich auch ausgeweitete Zonen, und im letzten Atemzug wird keine andere Möglichkeit mehr geben, als bestimmte Zielgruppen auszugrenzen um die Verkehrslast zu verringern, damit man überhaupt noch vom Fleck kommt.

Unsere Wirtschaft basiert auf Wachstum und für dieses Wachstum müssen mehr Menschen her, die auch mehr Autos kaufen. Auf Dauer kann das einfach nicht mehr nach dem bestehenden System klappen.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 8
Kleiner Nachtrag, dachte das macht sich besser in einem neuen Post, da er sich wieder etwas auf den Artikel im Startbeitrag bezieht:

Die ganzen Überlegungen, wonach ein Computer entscheiden soll, welches das geringste Übel bei einer bevorstehenden unausweichbaren Kollision ist, trifft ein Mensch doch sowie so nicht. Der Rast einfach irgendwo gerade rein.

Ich will damit sagen, hier wird eine Phantomdiskussion geführt. Ein Computer wird nicht entscheiden ob er besser in die 5 Kinder auf dem Gehweg ausweicht oder in die Familienkutsche mit Kleinkindern reinfährt.

1. Hat er die Informationen nicht und keine Möglichkeit ohne Eingriff in die Privatsphäre anderer Menschen an diese zu kommen.
2. Wird so handeln, dass er immer stehenbleiben kann, da er den Mindestabstand einhält.

Sollten Fälle außerhalb dieser seiner Möglichkeiten eintreten, kommt es eben wie bei einem menschlichen Fahrer auch zum Crash und tragischen Schlagzeilen.

Die Erkennung anhand Kameras und anderer Sensoren ist zu limitiert. Früher oder später wird alles per Schwarmintelligenz laufen. Das heißte die Fahrzeuge kommunizieren mit einander und tauschen gegenseitig Informationen aus.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 9
Aber die Software arbeitet anders als der Mensch nicht nach Willkür, sondern anhand von bestimmbaren Parametern. Dadurch wird das Verhalten vorhersehbar.
Natürlich arbeitet die Software  nicht nach Willkür. Aber es gibt keine fehlerfreien Programme.

Die Software kann nur das was, was der Programmierer programmiert hat. Eine Limitierung ist dabei die verwendete Hardware (Rechengeschwindigkeit der Prozessoren (insbesondere bei der Bildverarbeitung), Eingabe-Sensoren (Kamera, Radarsensoren, LIDAR, Ultraschall-Sensoren, etc), aber auch die Komplexität der verwendeten Aufgabe.
So eine Bildbearbeitung wie der Mensch sie flexibel macht, ist für den Rechner nicht so einfach. Hier wird teilweise von Annahmen ausgegangen. Beispielsweise die Personenerkennung ist äußerst kompliziert und nicht fehlerfrei.
Dazu kommen dann noch viele Fehler, die die Programmierer machen. Fehlerfreie Programme gibt es nicht. Dazu kommt es zu Abstürzen, Fehlverhalten, oder anderem.

Und wenn dann noch beispielsweise Tesla ein System mit unzureichenden Sensoren und nicht ausgereifter Software als Autopilot auf die Menschheit loslässt, dann passieren noch mehr Fehler. Insbesondere, wenn sich der Fahrer in Sicherheit wiegt, da das System vorher tausend ähnliche Probleme bereits ohne Probleme gemeistert hat. Im Zweifel wird dann gesagt (siehe Pressereaktionen von Tesla und die des Kameraherstellers), dass das System für diese Situation nicht vorgesehen war.

Funktioniert Dein Navi, Dein PC, Dein Smartphone, etc. fehlerfrei und macht immer dasselbe? Bei mir nicht. Aber das selbstfahrende System soll fehlerfrei funktionieren?

Wir müssen vermutlich bei selbstfahrenden Systemen sehr klein anfangen. Dazu könnte passen, dass man selbstfahrende Systeme nur auf bestimmten Autobahnen und speziell präparierten Wegen fahren lässt. Und denen das Einparken in einem Parkhaus überlässt. In diesem Bereichen müsste man das System  vor unberechenbaren Menschen (insbesondere Kinder ;-)) schützen und die Menschen vor dem System.
Und es müsste eine Zertifizierung der eingesetzten Systeme, mit Analyse der verwendeten Hardware und eine Sour-Code-Analse der Software geben. Nicht einfach wie bisher, dass jemand die Systeme "ausprobiert" und für gut oder schlecht befindet.
Zitat
Ich will damit sagen, hier wird eine Phantomdiskussion geführt. Ein Computer wird nicht entscheiden ob er besser in die 5 Kinder auf dem Gehweg ausweicht oder in die Familienkutsche mit Kleinkindern reinfährt.
Genau diese Entscheidung muss der Programmierer aber treffen. Denn Auto sind häufig zu schnell, um einfach stehen zu bleiben (siehe Bremsweg). Das wäre auch nicht immer ratsam, wenn beispielsweise ein anderes Auto hinterher fährt.

Das Thema wird zu recht diskutiert. Siehe auch Pech für Fußgänger: Selbstfahrender Mercedes soll im Zweifel immer den...

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 10
Natürlich arbeitet die Software  nicht nach Willkür. Aber es gibt keine fehlerfreien Programme.

Die Software kann nur das was, was der Programmierer programmiert hat. Eine Limitierung ist dabei die verwendete Hardware (Rechengeschwindigkeit der Prozessoren (insbesondere bei der Bildverarbeitung), Eingabe-Sensoren (Kamera, Radarsensoren, LIDAR, Ultraschall-Sensoren, etc), aber auch die Komplexität der verwendeten Aufgabe.
So eine Bildbearbeitung wie der Mensch sie flexibel macht, ist für den Rechner nicht so einfach. Hier wird teilweise von Annahmen ausgegangen. Beispielsweise die Personenerkennung ist äußerst kompliziert und nicht fehlerfrei.
Dazu kommen dann noch viele Fehler, die die Programmierer machen. Fehlerfreie Programme gibt es nicht. Dazu kommt es zu Abstürzen, Fehlverhalten, oder anderem.

Und wenn dann noch beispielsweise Tesla ein System mit unzureichenden Sensoren und nicht ausgereifter Software als Autopilot auf die Menschheit loslässt, dann passieren noch mehr Fehler. Insbesondere, wenn sich der Fahrer in Sicherheit wiegt, da das System vorher tausend ähnliche Probleme bereits ohne Probleme gemeistert hat. Im Zweifel wird dann gesagt (siehe Pressereaktionen von Tesla und die des Kameraherstellers), dass das System für diese Situation nicht vorgesehen war.

Funktioniert Dein Navi, Dein PC, Dein Smartphone, etc. fehlerfrei und macht immer dasselbe? Bei mir nicht. Aber das selbstfahrende System soll fehlerfrei funktionieren?

Denk doch mal einen Schritt weiter. Der Stand der Technik wird nicht bleiben wie er ist. Das Auto wird für sich selbst nicht die ganze Umgebung abtasten müssen. Personen müssen nicht erkannt werden, es muss nur zuverlässig ein Hindernis erkannt werden. Die Sensorik wird Fortschritte machen, die Straßen und die Verkehrsleitsysteme können angepasst werden um autonomes Fahren zu begünstigen. Irgendeine Schiene in Leitplanken, Farbzusätze bei Streifen oder was weiß ich, was es da für möglichkeiten gibt, die alle zusammen mit anderen Systemen arbeiten.
Schon heute ist ein BMW praktisch in der Lage, selbstständig einen Parkplatz zu suchen und einzuparken, die Darpa hat einen Roboter, der autonom durch nen Wald läuf und dazu noch Balanceprogramme parallel laufen lässt. Denk mal 20 oder vielleicht nur 10 Jahre weiter,

Was deine Bedenken hinsichtlich der Zuverlässigkeit betrifft: Natürlich wird ein Systemfehler/-ausfall unweigerlich zu erheblichen Störungen führen. Aber in 10 Jahren wird der Verkehr so drastisch zugenommen haben, dass wir Leitsysteme brauchen werden um den Individualverkehr nicht sterben zu lassen. Überleg mal wie perfektes Einfädeln, Verkehrsraum-Management und die Subtrahtion des menschlichen Egoismus heutige Stausituationen verpuffen lassen oder erheblich reduzieren lassen könnten, da der Fahrzeugdurchsatz an Engpässen durch sauberen Ablauf massiv erhöht werden kann.

Gemessen an dem was meine elektronischen Geräte können, laufen diese sehr zuverlässig. Zudem muss man da auch zwischen Störungsarten unterscheiden und dem Budget und dem Testaufwand. Ein USB-MP3-Funktion ist nicht so wichtig, dementsprechend wird auch wenig Aufwand betrieben

Wir müssen vermutlich bei selbstfahrenden Systemen sehr klein anfangen. Dazu könnte passen, dass man selbstfahrende Systeme nur auf bestimmten Autobahnen und speziell präparierten Wegen fahren lässt. Und denen das Einparken in einem Parkhaus überlässt. In diesem Bereichen müsste man das System  vor unberechenbaren Menschen (insbesondere Kinder ;-)) schützen und die Menschen vor dem System.
Und es müsste eine Zertifizierung der eingesetzten Systeme, mit Analyse der verwendeten Hardware und eine Sour-Code-Analse der Software geben. Nicht einfach wie bisher, dass jemand die Systeme "ausprobiert" und für gut oder schlecht befindet. Genau diese Entscheidung muss der Programmierer aber treffen. Denn Auto sind häufig zu schnell, um einfach stehen zu bleiben (siehe Bremsweg). Das wäre auch nicht immer ratsam, wenn beispielsweise ein anderes Auto hinterher fährt.

Da bin ich bei dir.
Der erste Schritt wird sein, dass es eine gesonderte Spur auf Autobahnen geben wird. Das ist das einfachste Szenario. Die Fahrzeuge tauschen untereinander Daten aus, wissen immer die Position die Zielgebung des vorausfahrenden Fahrzeugs, halten immer den Mindestabstand ein. Das wird der Anfang sein. Dann wird es Fortschritte geben und nach und nach wird die Autobahn dann entsprechend erweitert und irgendwann darf man auf Autobahnen nur noch autonom fahren. Ich könnte mir vorstellen, dass Landstraßen, kleinere Gassen, etc. zum Schluss drankommen. City wird irgendwann sehr wahrscheinlich gar nicht mehr befahren werden dürfen außer mit öffentlichen Verkehrsmitteln, etc. Dein Link zeigt dir auf dem Bild ja schon, was ich gerade beschrieben habe.


Warum ich der Meinung bin, dass das eine Phantomdiskussion ist?
1. Durchläuft der Mensch in Sekundenbruchteilen nicht einen Ethiknachholkurs und entscheidet richtig. Im Gegenteil, er wird basierend auf Erfahrungen und erheblich zeitverzögerter reagieren und das oft falsch. Da vertraue ich offen gestanden der Technik mehr als dem Menschen.
2.
Zitat
Allerdings ließ er das britische Automagazin auch wissen, dass er solche Grenzfälle grundsätzlich für sehr unwahrscheinlich halte und sie in einer Welt von vollautomatisierten Fahrzeugen so gut wie nie vorkommen dürften.
Quelle: dein genannter Link

 

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 11
Ja, du hast Recht, es ist eine Phantomdiskussion, bei der beide Seiten mit gleichem Anspruch das "recht haben" für sich beanspruchen können.

Wenn ich eine genau definierte Situation X betrachte, ist es sehr wahrscheinlich, dass Kollege Computer schneller (Reaktionsvermögen), effektiver/effizienter (saubere Algorythmen vorausgesetzt), also besser bewältigen kann ... im Vergleich zum Mensch.

Wenn ich aber das "Geschehen Verkehr" in seiner Komplexität betrachte, sehe ich den Menschen immer im Vorteil gegenüber der KI:

- die KI bekommt ein Ziel genannt, und navigiert anhand bekannter Daten dorthin.
Bedenke mal, wie oft Verkehrsmeldungen, gerade bei Stau usw. einfach falsch sind (der Stau beginnt ganz wo anders, oder hat sich schon aufgelöst. Ich stand schon oft mitten im Stau, um mir dann vom TMC Navi mitteilen zu lassen "Sie näher´n sich einem Stau" ... die KI hätte anhand der vorliegenden Daten damit gerechnet, dass der Stau erst noch kommt, und nicht schon da ist...upsala).

Der Mensch handelt, insbesondere auf bekannten Wegen auf Basis seiner Erfahrungen. Ich nehme mal mich als Beispiel: ich weiß, dass ich das Weinsberger Kreuz in der Zeit von etwa 7:15 bis 7:25 auf der A6 richtung Westen passieren muss, vorher und hinterher stehe ich garantiert im Stau, genauso weiß ich auf Erfahrungsbasis, dass ich vorher eher die parallele Landstraße nehmen kann (ist dann leer), danach eher #Stadtverkehr Heilbronn (ist vorher voll).... diese Vorahnungen sind an das Wissen der Schichtwechselzeiten der dort ansässigen größeren Betriebe gebunden, das weiß aber die KI nicht (es sei denn, du schaffst ein System totaler Überwachung). Der Witz ist nun, ich muss mich etwa 15 Minuten vorher für einen der 3 Wege entscheiden (und dabei wiederum auf die Erfahrung bauen, wie ich z.B. zu welchen Uhrzeiten ich gut oder schlecht durch Öhringen komme (die Fahrzeitschätzungen der Navis kannst du da voll vergessen), und auch wie ich mein eigenes Verhalten dann anpassen werde) Der Mensch kann deshalb anhand vieler weicher "Parameter" (Wetter, Erfahrungen, Zeit, Eile, Straßenzustand und damit in Verbindung z.B. im Winter Kenntnis von den Gepflogenheiten des Winterdienstes) bestimmte Situationen "vorhersagen", und damit vermeiden, die sich für den Kollegen Computer als unlogisch darstellen (wenn man mal unterstellt, man könnte der KI all diese Informationen in Echtzeit zur Verfügung stellen, und diese könnte die auch noch bearbeiten in Echtzeit).

Deshalb denke ich, dass es der richtige Weg wäre, für einzelne, konkrete Situationen Assistenten zu entwickeln und zu perfektionieren (z.B. Einnfädelassi für die BAB, Notbremsassis, Spurhaltesysteme...) aber die Verantwortung für deren Einsatz (oder Nichteinsatz) einem Menschen zu übertragen, und der menschlichen Entscheidung jederzeit die Priorität über die der Maschine einräumen. Gleichzeitig aber auch wieder das Bewusstsein der Fahrer für ihre Verantwortung schulen/schärfen. Leider kann man wirklich beobachten, dass immer mehr Assis und Schutzsysteme eine Haltung alá "wenns schief geht, drück ich Reset" zu fördern scheinen.

Ich erinnere mich immer wieder an eine ehemalige Schülerin von mir, kurz nach Führerscheinerhalt. Sie fuhr mit einem voll bestzten Corsa mit 90 in eine Kurve, die ich mit dem Primera max. mit 70 nahm (besagte 70 sind dort zu recht vorgeschrieben). Die Reifen quietschten. Auf meinen Hinweis, dass das wohl nicht mutig, sondern übermütig war, und ich gern in einem Stück am Ziel ankäme, erhielt ich die Auskunft: "Ach was, ich habe doch ABS und Vollkasko!"

Genauso sehe ich dann die Zukunft der autonomen Fahrzeuge: "Ach was, ich hab doch Autopilot!"

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 12
Ich möchte nicht jeden torpedieren, der "dagegen" ist, aber die beschriebene Situation, dass der Stau früher beginnt als angezeigt, wird nicht eintreten, da vorher der Wagen schon von anderen Fahrzeugen Bescheid bekommen hat (Thema Vernetzung) und zuletzt anhand des eingehaltenen Sicherheitsabstands und absolut unbeeindruckt voll in die Eisen gehend rechtzeitig halten wird.
Da werden mehrere Systeme parallel funktionieren und die lokale Sensorik wird die Priorität haben.

Du wirst kein Bewusstsein mehr schärfen. Der Grund weshalb Reißverschluss zum Beispiel heute nicht funktioniert:
- Die Leute fahren nicht mehr auf Lücke
- Jeder hat eine andere Vorstellung davon wann und ob er einen reinlässt
- Manch einem ist es völlig egal, was mit anderen ist, solange er subjektiv "gewonnen" hat
Gib dem Mensch den Knopf alles auszuschalten und diese Gründe werden wieder in Kraft treten. Oder wir haben Glück und die Leute sind zu gechillt um überhaupt noch die Ambition zu verspüren einzugreifen.^^

Ich weiß, das klingt gerade wie die zynischen Worte eines durch dramtische Umstände geschaffenen Bösewichts in einem Blockbuster, aber diese Fehler sind die "Störquelle Mensch".

Genauso sehe ich dann die Zukunft der autonomen Fahrzeuge: "Ach was, ich hab doch Autopilot!"
Der Autopilot wird nicht mit quitschenden Reifen in die besagte Kurve fahren. Es sei denn er wird mit falschen Daten gefüttert und da sehe ich in der Tat auch noch eine Gefahr, aber kein unlösbares Problem.

Antw.: Yikes - even Barack Obama wants to solve robocar "Trolley Problems" now

Antwort Nr. 13
Nun geht es hier also um grundsätzliche Fragen zum autonomen Fahren? Prima, im Thread Tesla schaltet teil autonomes Fahren frei nämlich auch. Daher würde ich sagen, machen wir hier dicht und es darf im Tesla-Thread weiter diskutiert werden, da es dort inzwischen mehr Inhalte gibt als hier.