Hat roflgrins seinen Führerschein vielleicht schon bald umsonst gemacht?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Dir ist schon klar, dass die das machen um sich rechtlich abzusichern aber öffentlich groß davon schwärmen wie nah sie am autonomen Fahren sind und dass bereits die Sensorik für autonomen Fahren verbaut ist und ständig Firmware updates nachgeschoben werden und das alles groß bewerben? Mit Teilschuld meine ich auch nicht sowas wie ein 50/50 Splitting oder dass Tesla juristisch zu belangen ist. Aber aus meiner moralischen Sicht heraus handelt Tesla was diesen Punkt angeht nicht ehrlich genug.

      Zu den Händen am Lenkrad: Tesla besitzt Sensorik im Innenraum um diesen Zustand zu forcieren. Das Auto könnte abbremsen, wenn die Hande länger als sagen wir mal 5 Sekunden nicht am Lenkrad waren. Das tut es aber nicht (evtl. jetzt. Aber ich kenne Videos in denen das definitiv nicht der Fall war). Die Fahrer sind natürlich selbst verantwortlich und das hab ich auch nie bestritten. Sie sind ja auch diejenigen die den Schaden tragen (und hoffentlich auch die einzigen). Dennoch trägt Tesla Verantwortung. Auch wenn sie sich rechtlich abgesichert haben. Das ist ja nur eine Ebene auf der man soetwas beurteilen kann.
      There are 10 types of people - those who understand binary, and those who don't.
    • Tesla betont immer wieder, dass es eben noch kein vollständiges autonomes Fahren ist, sondern eben nur Fahrassistenz.
      Natürlich machen sie Werbung für die Fortschritte/tollen Features, daran ist aber (für mich) absolut nichts verwerflich.
    • Fand den Vergleich von dir mit dem Autopiloten vom Flugzeug schon recht treffend. Und der heißt ja auch so.
      Warum ist es da ok und beim Auto nicht? Weil der Durchschnittspilot intelligenter ist als der Durchschnittsautofahrer?
    • Der Durchschnittspilot ist im Umgang mit dem Autopiloten jahrelang geschult und hat nicht einmalig einen "hab's zur kenntnis genommen"-Haken bei einem Update gesetzt.

      e: Bin auch der Ansicht, dass Tesla da zumindest rechtlich nicht belangt werden sollte, da sie zur Genüge darauf hingewiesen haben, dass das ganze bloß ein cooles Gadget und nicht zum eigenständig fahren gedacht ist, moralisch find ich's aber etwas schwieriger, da mMn. abzusehen war, dass das Feature von irgendwelchen Trotteln in dieser Form fehlbenutzt wird.



      eventually there comes a point where it's like the true test for your team - will he cast a spell or will he not
      - Artour Babaev

      Und wenn beide dann nicht mehr stacken und der einer 6k Boi, der vorher 4k war, mit einem anderen 4k Boi spielt, dann ist er nicht mehr 6k, weil er reverse trägert, oder?
      - User des Monats
    • Was willst du denn machen? Kannst ja nicht jeden Käufer für den Autopiloten schulen.
      Noch schwieriger wirds dann wenn man an den Gebrauchtwagenkauf denkt.

      Muss wenn dann halt ins Fahrschulkonzept übernommen werden, aber das wird wohl nicht/nur vereinzelt passieren.
    • Über den Funktionsumfang kann man schon über einen Autopiloten reden. Aber wenn du dir den Anforderungskatalog bei nem Auto und Flugzeug anschaust, kommen beim Auto einige Funktionen für einen AUTO(=selbst/eigenständig)pilot dazu. Der lubipo Post fasst das schon sehr gut zusammen.
      There are 10 types of people - those who understand binary, and those who don't.
    • Meiner Meinung nach ist es halt Produktplazierung, da sind Synonyme, die den Interessierten mehr suggestieren standard, davon lebt die Industrie.

      Driftet bisschen ab, aber was sagt ihr den zu den Laserlicht Techniken von Audi, BMW, Mercedes und Co, würdet ihr so was extra dazu kaufen oder noch warten?

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Xephas ()

    • Was sagt ihr eigentlich zu der moralischen programmierfrage?

      es gab neulich ne studie mit 2000teilnehmern:

      die Fragen haben ergeben, dass solange es die leute selber nicht betrifft die moralisch "bessere" entscheidung genommen werden soll (bsp. auto fährt entweder in eine mauer oder eine menschengruppe)
      also als unbeteiligter sagen >70% der typ sollte in die mauer fahren
      gleichzeitig sagen 80% sie würden kein auto kaufen, dass nicht auf maximalen fahrerschutz (bei der programmierung) ausgelegt ist.


      also die dinger werden dann sehr schwierig zu verkaufen, wenn du als käufer weisst: im zweifel bringt mich das ding vllt um. müsste dann eben klar sein: ok wir machen das so "for the greater good"

      wenn man jetzt ein paar zahlen dahinter setzt, dann wird die angst wohl unbegründet, aber das hindert die angst ja nicht daran da zu sein
    • du hast recht aber da fehlen mir noch ein paar sachen die in die kaufrichtung gehen.

      die diskussion ging ja eher in richtung moralisches dilemma. was ich ansprechen wollte (und was vorher schon angesprochen wurde) ist wie man damit umgeht bzw könnte man damit leben/etwas kaufen, das nicht die maximale eigene sicherheit berücksichtigt?

      also würden sich leute so ein auto kaufen (es müsste logischerweise per gesetz festgeschrieben sein wann das auto was macht, da sonst möglicherweise alle zum hersteller mit dem größten Eigensicherheitsauto rennen).

      Wollte also wissen wieweit wir von dieser gesellschaftlichen entscheidung weg sind und ob die undenkbar ist.

      viele kaufen sich ja heute schon einen SUV obwohl sie keinerlei verwendung für den entsprechenden mehrwert haben. ein oftmals aufgeführtes argument is die sicherheit dieser autos. wenn du mit einem kleinwagen zusammenstößt der 2t weniger wiegt, dann passiert dir in deinem auto halt einfach weniger. sicherheit ist also heute schon teilweise eine geldfrage man würde daher nur die schere wieder weiter aufgehen lassen
    • Wenn man das gesetzlich regeln würde mit einer Übergangsfrist und ab dann alle Autos autonom sein müssten (weil das wiederum die Sicherheit im Ganzen steigert bzw. effizienter ist wie z.B. dann gleichzeitiges Losfahren nach einer roten Ampelphase), hast du das Problem nicht. Dann kannste dir aussuchen ob du ein Auto willst oder nicht.

      Ansonsten sollte n selbstfahrendes Auto trotzdem sicherer sein, da es im Schnitt weniger Fehler macht als man selbst. Dann noch ein Fahrstil à la GoogleCar und man sollte eigentlich nicht mehr so schnell fahren, dass man in lebensbedrohliche Situationen kommt.

      Ist alles Wunschdenken. Aber so Grenzfälle die man sich jetzt ausdenken kann, werden von der Programmierung wahrscheinlich auch nicht mit einer Steuerregel bedacht werden. Da eh viel über maschinelles Lernen/neuronale Netze gemacht werden wird, kannst du die Regeln auch gar nicht so vorgeben, wie du sie z.B. einem Fahrer diktieren würdest.

      Ich finde die Diskussion ist zwar nachvollziehbar von menschlicher Seite her. Geht aber an der Technik vollkommen vorbei.
      There are 10 types of people - those who understand binary, and those who don't.
    • Selbst wenn es möglich wäre, würde niemand ein Auto kaufen was ihn umbringt, weil ein random Balg meint auf die Straße rennen zu müssen. Wenn das wirklich gesetzlich geregelt wird, würde niemand die Dinger in Deutschland vertreiben sondern eher in Ländern wo es son beknacktes Gesetz nicht gibt und damit hätte Roflgrins seinen Führerschein wohl doch nicht umsonst gemacht.
    • Wer fordert es denn, dass man in Notsituationen anfängt in Wände zu fahren? Fordert doch auch heute keiner von dir? Das richtige Verhalten wäre wohl eher in Wohngebieten nicht so schnell zu fahren, dass man mit praktisch sofortiger Reaktionszeit, die so ein Auto haben sollte, noch rechtzeitig zum halten kommt.
      There are 10 types of people - those who understand binary, and those who don't.
    • Ist echt lächerlich der Test, im Normalfall muss ja jemand gegen die Gesetze verstoßen, damit es überhaupt zu einem Unfall kommen kann.
      In dem Fall wäre es schon maximal retarded die Insassen für den Fehler anderer zu bestrafen

      In fast keinem der Szenarios die ich beantworten durfte, wurde allerdings darauf eingegangen, wer einen Fehler gemacht hat.
      Da ich davon ausgehe, dass das selbstfahrende Auto eher keine macht (wie zb. zu schnell zu fahren), habe ich alle Leute einfach überfahren lassen, unabhängig davon wer oder was getroffen wurde.