duesi Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 (bearbeitet) Umfrage: Wen würden Sie töten? Es geht um die Frage, was ein Fahrzeug in einer unausweichlichen Situation tun sollte? Eher die Insassen opfern oder eher die Außenstehenden opfern? Wer sollte bevorzugt werden? Ältere oder Kinder? Oder darf man diese Frage überhaupt stellen? bearbeitet 25. Oktober 2018 von duesi Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
mn1217 Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos. Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 (bearbeitet) Hier findet ihr die Antwort: Die 3 Robotergesetze von Isaac Asimov (1942 geschrieben!). bearbeitet 25. Oktober 2018 von Marcellinus Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
duesi Geschrieben 25. Oktober 2018 Autor Melden Share Geschrieben 25. Oktober 2018 vor 3 Stunden schrieb mn1217: Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos. Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert. Die Ethikkommission hat ja ganz klar gesagt, dass das Fahrzeug diese Fragen nicht stellen darf. Es darf keine Auswahl nach Alter, Geschlecht oder Status vornehmen, sondern MUSS in der genannten Situation eine Entscheidung für den Schutz der Unbeteiligten und gegen den Schutz der Insassen treffen. Ich halte die Entscheidung der Ethikkommission für höchst vernünftig und sinnvoller als den Mehrheitsentscheid. 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
duesi Geschrieben 25. Oktober 2018 Autor Melden Share Geschrieben 25. Oktober 2018 vor 2 Stunden schrieb Marcellinus: Hier findet ihr die Antwort: Die 3 Robotergesetze von Isaac Asimov (1942 geschrieben!). Nach den drei Robotergesetzen dürfte es überhaupt keine selbstfahrenden Autos geben, da potentiell immer eine wissentliche Verletzung von Personen möglich ist. Das halte ich für keine gute ethische Entscheidung, weil durch selbstfahrende Autos zu erwarten ist, dass die Gefährdung im Straßenverkehr insgesamt abnimmt und nicht zunimmt, da Fahrfehler als Gefährdungsursache ausscheiden. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
boandlkramer Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 vor 3 Stunden schrieb mn1217: Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos. Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert. Nun sollen ja selbstfahrende Systeme den Verkehr sicherer machen und Unfälle mit und ohne Personenschaden vermindern, wenn sie das nicht leisten, dann solle man es tatsächlich lassen. In der Umfrage werden Dilemma-Situationen geschildert bei denen, egal wie man sich entscheidet, unausweichlich jemand drauf geht und man noch Zeit zum überlegen hat. In der Realität kommen solche Situationen so gut wie nicht vor. Fußgänger werden normalerweise nicht überfahren, weil sie alt oder männlich sind und der Fahrer nicht gegen eine Betonwand fahren will, sondern weil die Reaktionszeit gar nicht ausreicht, um überhaupt eine Entscheidung zu treffen. Und sollte es tatsächlich zu einer Situation kommen, in der man zu Abwägungen Zeit hat, dann würde ich mich lieber auf einen gescheiten Computer verlassen, denn der kann die Variante bei der alle überleben können wahrscheinlich besser berechnen und adäquat reagieren. Voraussetzung dafür ist natürlich ein ausgereiftes System, denn ohne das braucht man ethische Feinheiten desselbigen gar nicht diskutieren. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 vor 2 Minuten schrieb duesi: Nach den drei Robotergesetzen dürfte es überhaupt keine selbstfahrenden Autos geben, da potentiell immer eine wissentliche Verletzung von Personen möglich ist. Eben! Roboter sollten niemals über das Leben von Menschen entscheiden dürfen/müssen! Punkt! Wer selbstfahrende Autos will, muß den Straßenverkehr so einrichten, daß eine solche Situation nicht vorkommen kann. Wenn doch, muß der Roboter sich einfach abschalten. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
duesi Geschrieben 25. Oktober 2018 Autor Melden Share Geschrieben 25. Oktober 2018 vor 34 Minuten schrieb boandlkramer: Nun sollen ja selbstfahrende Systeme den Verkehr sicherer machen und Unfälle mit und ohne Personenschaden vermindern, wenn sie das nicht leisten, dann solle man es tatsächlich lassen. In der Umfrage werden Dilemma-Situationen geschildert bei denen, egal wie man sich entscheidet, unausweichlich jemand drauf geht und man noch Zeit zum überlegen hat. In der Realität kommen solche Situationen so gut wie nicht vor. Fußgänger werden normalerweise nicht überfahren, weil sie alt oder männlich sind und der Fahrer nicht gegen eine Betonwand fahren will, sondern weil die Reaktionszeit gar nicht ausreicht, um überhaupt eine Entscheidung zu treffen. Und sollte es tatsächlich zu einer Situation kommen, in der man zu Abwägungen Zeit hat, dann würde ich mich lieber auf einen gescheiten Computer verlassen, denn der kann die Variante bei der alle überleben können wahrscheinlich besser berechnen und adäquat reagieren. Voraussetzung dafür ist natürlich ein ausgereiftes System, denn ohne das braucht man ethische Feinheiten desselbigen gar nicht diskutieren Es geht eben nicht darum, ob der Mensch Zeit zum Überlegen hat, sondern ob das System bei versagenden Bremsen eine Entscheidung treffen soll. Das System kann solche Entscheidungen in Sekundenbruchteilen treffen, wenn es entsprechend programmiert ist. Die Frage würde sich nicht stellen, wenn die Technik noch nicht so weit wäre. Es wird unglaublich viel in autonomes Fahren investiert und ich bin überzeugt davon, dass wir in den nächsten zehn Jahren die ersten Serienprodukte im Fernverkehr auf den Straßen haben werden, zumindest bei Lkws. Für den Stadtverkehr werden die Systeme noch Zeit brauchen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
duesi Geschrieben 25. Oktober 2018 Autor Melden Share Geschrieben 25. Oktober 2018 vor einer Stunde schrieb Marcellinus: Eben! Roboter sollten niemals über das Leben von Menschen entscheiden dürfen/müssen! Punkt! Wer selbstfahrende Autos will, muß den Straßenverkehr so einrichten, daß eine solche Situation nicht vorkommen kann. Wenn doch, muß der Roboter sich einfach abschalten. Das halte ich zwar für einen besseren Weg als eine Entscheidung nach Alter. Aber wenn ein Abschalten des Systems bei einem vorhergesehenen nicht verhinderbaren Unfall mit Personenschaden die Anzahl der Unfallopfer erhöhen würde, halte ich eine kontrollierte Steuerung für die bessere Variante. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Marcellinus Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 vor 3 Minuten schrieb duesi: Das halte ich zwar für einen besseren Weg als eine Entscheidung nach Alter. Aber wenn ein Abschalten des Systems bei einem vorhergesehenen nicht verhinderbaren Unfall mit Personenschaden die Anzahl der Unfallopfer erhöhen würde, halte ich eine kontrollierte Steuerung für die bessere Variante. Denke es einen Augenblick zuende. Denke an einen Assistenzroboter im Haus, der bei einem Einbruch seinen Herrn nur schützen zu können glaubt, indem er den Einbrecher tötet. Hinterher stellt sich heraus, daß es das Nachbarkind mit einer Wasserpistole war. Laßt Maschinen nie über das Leben von Menschen entscheiden! Und lest SF-Romane! Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
boandlkramer Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 vor 28 Minuten schrieb duesi: Es geht eben nicht darum, ob der Mensch Zeit zum Überlegen hat, sondern ob das System bei versagenden Bremsen eine Entscheidung treffen soll. Das System kann solche Entscheidungen in Sekundenbruchteilen treffen, wenn es entsprechend programmiert ist. Die Frage würde sich nicht stellen, wenn die Technik noch nicht so weit wäre. Es wird unglaublich viel in autonomes Fahren investiert und ich bin überzeugt davon, dass wir in den nächsten zehn Jahren die ersten Serienprodukte im Fernverkehr auf den Straßen haben werden, zumindest bei Lkws. Für den Stadtverkehr werden die Systeme noch Zeit brauchen. Ja, es geht darum, ob selbstfahrende Systeme irgendwann auch über das Abwägen von Menschenleben nach bestimmten ethischen Kriterien entscheiden dürfen sollen. Mein Post sollte nur darauf hinweisen, dass diese Frage ein sehr selten auftretendes ethisches Dilemma betrifft, weil ich aus mn1217 Beitrag eine grundsätzliche Skepsis bzgl. autonomer Fahrsysteme herauslese, ich diesen aber durchaus positives abgewinnen kann, gerade was die Sicherheit im Verkehr betrifft. Was die Technik betrifft, arbeitet man wohl eher noch an technischen Fein- und Grobheiten, da stellen sich so diffizile ethische Frage momentan nicht so arg. 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
boandlkramer Geschrieben 25. Oktober 2018 Melden Share Geschrieben 25. Oktober 2018 vor 5 Minuten schrieb Marcellinus: Denke es einen Augenblick zuende. Denke an einen Assistenzroboter im Haus, der bei einem Einbruch seinen Herrn nur schützen zu können glaubt, indem er den Einbrecher tötet. Hinterher stellt sich heraus, daß es das Nachbarkind mit einer Wasserpistole war. Laßt Maschinen nie über das Leben von Menschen entscheiden! Und lest SF-Romane! Oh, oh ... dazu braucht es keine SF-Romane, die Realität ist schlimm genug und nein, es war nicht der Roboter und auch nicht der Gärtner. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
mn1217 Geschrieben 26. Oktober 2018 Melden Share Geschrieben 26. Oktober 2018 (bearbeitet) Ich bin auch skeptisch. Ich habe garantiert eutlich weniger scifi Romane geelsen als marcellinus, aber genug, um Szenarien für möglich zu halten, die nicht sein müssen. Und ich habe lieber das Gefühl, mein Auto selbst zu steuern. Mir sind schon die Auos unheimlich, die selbst einparken. Unfälle vermindern geht vielleicht, aber dafür hat man dann das Problem, das der Fahrer nicht sellbst gefahren ist wenn es doch einen Unfall gibt. bearbeitet 26. Oktober 2018 von mn1217 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
OneAndOnlySon Geschrieben 27. Oktober 2018 Melden Share Geschrieben 27. Oktober 2018 vor 9 Stunden schrieb mn1217: Und ich habe lieber das Gefühl, mein Auto selbst zu steuern. Mir sind schon die Auos unheimlich, die selbst einparken. Das ist schön. Mir geht es oft genau andersherum aber aus der Perspektive des Betroffenen. Es gibt genug Autofahrer, die dauerhaft (wegen Alter, Behinderung, psychischer Konstitution) oder temporär (abgelenkt, Schnupfen, Müdigkeit) nicht in der Lage sind, ihr Fahrzeug sicher zu steuern. Dieses "Gefühl, mein Auto selbst zu steuern" ist eben oft nur ein Gefühl bei menschlichen Fahrern. Die Kontrolle über ihr Auto haben sie aber nicht immer und das unabhängig davon, ob der Wagen Baujahr 1986 oder 2018 hat. 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
mn1217 Geschrieben 27. Oktober 2018 Melden Share Geschrieben 27. Oktober 2018 (bearbeitet) Ja, klar, aber immer noch besser als gar keine Kontrolle , weil das blöde Ding ferngesteuert respektive -programmiert wird. bearbeitet 27. Oktober 2018 von mn1217 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
OneAndOnlySon Geschrieben 27. Oktober 2018 Melden Share Geschrieben 27. Oktober 2018 vor 7 Stunden schrieb mn1217: Ja, klar, aber immer noch besser als gar keine Kontrolle , weil das blöde Ding ferngesteuert respektive -programmiert wird. Ich werde lieber von einem programmierten autonomen Fahrzeug verschont als von dir überfahren - ist so. Wenn ich tot bin, bringt mir deine Kontrolle wenig. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
mn1217 Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 Ich überfahre dich nicht, keine Sorge. Und ich werde leiber von einem Menschen nciht überfahrten als von einem selbstfahrendeb Auto überfahren, bei dem nachher keiner weiß, wer zahlt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Gallowglas Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 Eigentlich gibt es auf die Frage eine ganz einfache Antwort : das Auto muss so programmiert werden, dass es en Schaden so minimal wie möglich hält ... einfaches Aufrechnen Leben gegen Leben ... links 2 mögliche Opfer, rechts 3, ergo fährt es links, aus die Maus. Oder genauer gesagt, es werden lediglich Wahrscheinlichkeiten betrachtet, was einem Rechner leicht fällt, alle persönlichen Faktoren die "Opfer" betreffend, interessieren nicht. Ist dann auch versicherungstechnisch keine große Sache mehr. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Gabriele Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 vor 5 Stunden schrieb mn1217: Und ich werde leiber von einem Menschen nciht überfahrten als von einem selbstfahrendeb Auto überfahren, bei dem nachher keiner weiß, wer zahlt. "Nicht überfahren werden" dürfte bei dem meisten Menschen Priorität haben. Aber wenn es denn schon sein muß - macht es einen Unterschied, ob man von einem selbstfahrenden Auto überrollt wird, oder ob da jemand hinterm Steuer sitzt? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
nannyogg57 Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 Wird dann die KFZ-Haftpflichtversicherung billiger? Und haftet dann die Firma? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Howe Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 vor 4 Minuten schrieb nannyogg57: Wird dann die KFZ-Haftpflichtversicherung billiger? Und haftet dann die Firma? Wenn es um Technik geht ist der größte Risikofaktor der Mensch der diese bedient. Wenn wir also mit selbstfahrenden Fahrzeugen diesen Risikofaktor ausschließen können dann brauchen wir keine Versicherung mehr weil Unfälle ja nicht mehr vorkommen können. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
nannyogg57 Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 Ich glaube ja ziemlich viel, aber das glaube ich definitiv nicht. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Howe Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 vor 6 Minuten schrieb nannyogg57: Ich glaube ja ziemlich viel, aber das glaube ich definitiv nicht. Was glaubst du nicht, dass Unfälle nicht mehr vorkommen, oder dass wir keine Versicherung mehr brauchen, oder dass der Mensch der größte Risikofaktor bleibt? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
duesi Geschrieben 28. Oktober 2018 Autor Melden Share Geschrieben 28. Oktober 2018 @ Howe: Der Mensch ist zwar der größte Risikofaktor, aber nicht der einzige. Technisches Versagen wird durch autonomes Fahren zu einem größeren Risikofaktor als bisher. @ Nanynogg: Die derzeitige Rechtsprechung ist leider so, dass der Fahrer eines autonomen Fahrzeugs immer noch als EINZIGER haftet. Ich habe neulich einen Artikel in der ADAC-Zeitschrift dazu gelesen. Und es gibt tatsächlich Rechtsstreitigkeiten, ob die beteiligten Unternehmen die Daten, die den Unfallhergang rekonstruieren können, offen legen müssen. Bisher versuchen sie, dafür zu sorgen, dass die Daten geheim bleiben müssen. Lösung wäre vielleicht so etwas wie eine Block Box, was es ja in Flugzeugen schon gibt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
nannyogg57 Geschrieben 28. Oktober 2018 Melden Share Geschrieben 28. Oktober 2018 Weniger Unfälle, das ist möglich. Aber gar keine? Allein schon deshalb, weil es im Endeffekt Menschen sind, die die Programme schreiben. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.