Hat roflgrins seinen Führerschein vielleicht schon bald umsonst gemacht?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Zwei News zum Thema:

      Google & Fiat-Chrysler vor Zusammenarbeit bei selbstfahrenden Autos

      Nvidia-Auto guckt sich einfach beim Menschen ab, wie man fährt
      Ein interessanter Ansatz, der das in letzter Zeit häufig verwendete Machine Learning dazu benutzt, den Autos Regeln zum selbstständigen Fahren beizubringen. Allerdings bin ich gespannt, wie gut das funktionieren wird. Vor allem wird es vermutlich für die Entwickler schwer bis unmöglich zu debuggen sein, wenn ungewollte Entscheidungen getroffen werden.
    • Seit AlphaGo wird praktisch alles mit Deep Learning versucht. Egal ob es Sinn macht oder nicht.
      Wie du bereits gesagt hast, sind Fehler oft kaum nachvollziehbar. Dazu kommt, dass sie laut dem Artikel nur eine begrenzte Anzahl an Daten haben. 72 Stunden langt bei weitem nicht für ein robustes System. Ich denke, dass ist mehr ein proof of concept als ein wirklicher Test.
      Grad bei AlphaGo hat man die schwächen von solchen Deep Learning programmen gesehen. Ich denke nicht, dass das so schnell die "altmodischen" self-driven cars verdrängen wird.
      Hazelnut, Mystify, Cuttlefish, Lark, Lurk, Robert, Anglican, Pheromone, Halter top, Marmalade, Hardware, Laser, Pepper, Release, Kneecap, Falafel, Period, Chaste, Chased, Leggings, Wool, Sweater, Heartbeat, Heartbeat, Heart, Beat, Heart, Beat, Beat, Beat, Beat, Beat.
    • hat 1 game gegen einen menschen verloren ist ergo noch ziemlich kacke



      eventually there comes a point where it's like the true test for your team - will he cast a spell or will he not
      - Artour Babaev

      Und wenn beide dann nicht mehr stacken und der einer 6k Boi, der vorher 4k war, mit einem anderen 4k Boi spielt, dann ist er nicht mehr 6k, weil er reverse trägert, oder?
      - User des Monats
    • Solange AlphaGo vorne lag hat es sou­ve­rän gespielt. Aber sobald Lee Sedol einen Zug gespielt hat den es nicht bedacht hat bzw. dem es eine niedriegere Priorität zugewiesen hatte, hat es versagt. Die nächsten Züge waren komplett Sinnlos und es hat sich für das restliche Spiel nicht mehr gefangen.
      Stell die das mal in einem Auto vor wo du drin sitz. Alles la-di-da, like npnp - bis ein Refen platzt oder ein Reh vor die Scheibe springt. Plötzlich reißt es wie wild aus, fährt absichtlich in den Gegenverkehr und denkt solange wie es zum stehen kommt ist alles perfekt. Selbst wenn es den nächsten Baum zum bremsen benutzt.
      Ich möchte nicht in so einem Auto sizten.

      AlphaGo hatte Millionen von Spielen analysiert und Abermillionen gegen sich selbst gespielt. Trotzdem ist in nur fünf Spielen eine Situation aufgetaucht die es komplett ins Schleudern gebracht hat. Bei der Anzahl an Autos und die Kilometer die wir Täglich in ihnen zurücklegen ist mir das zur Zeit noch ein viel zu großes Risiko.
      Gibt es mit der Technik potenzial?
      Garantiert.
      Sind 72 Stunden genung um das Auto dauerhaft Sicher zu machen?
      Auf keinen Fall.

      Vergleich das mal mit Teslas Autopilot. Die Sammeln seit September Daten und haben nun einige Fortschritte erzielt.



      lustigerbilderposter schrieb:

      hat 1 game gegen einen menschen verloren ist ergo noch ziemlich kacke
      :disappointed:

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Emmi ()

      Hazelnut, Mystify, Cuttlefish, Lark, Lurk, Robert, Anglican, Pheromone, Halter top, Marmalade, Hardware, Laser, Pepper, Release, Kneecap, Falafel, Period, Chaste, Chased, Leggings, Wool, Sweater, Heartbeat, Heartbeat, Heart, Beat, Heart, Beat, Beat, Beat, Beat, Beat.
    • Ich hab nichts übers Autofahren geschreiben. Wollte nur wissen was die Quirks beim Alpha waren.

      Hab hier im Forum schon mehrfach meine Meinung zu Machine Learning geschrieben. Hatte gedacht ich müsse nicht nochma exakt das selbe schreiben =)
      There are 10 types of people - those who understand binary, and those who don't.
    • Habs nur wieder aufs Autothema zurückgebracht um es anschaulich zu machen und damitt es nicht komplett offtopic ist. Und deine Meinung hab ich nicht gelesen bzw. nicht in Erinnerung. Kannst also von mir aus ruhig nochmals wiederholen falls es was mit dem Thema zu tun hat.
      Hazelnut, Mystify, Cuttlefish, Lark, Lurk, Robert, Anglican, Pheromone, Halter top, Marmalade, Hardware, Laser, Pepper, Release, Kneecap, Falafel, Period, Chaste, Chased, Leggings, Wool, Sweater, Heartbeat, Heartbeat, Heart, Beat, Heart, Beat, Beat, Beat, Beat, Beat.
    • Weiß nicht mehr in welchem Thread das war. Is ungefähr so: Machine Learning ist praktisch nicht debugbar, was den Weg der Entscheidungsfindung angeht. D.h. wir können als Menschen, selbst wenn wir uns simple Systeme anschauen nicht nachvollziehen wieso die Maschine zu ihrer Einordnung kommt. Das ist ein Nachteil der konzeptionell immer da ist. Mit dem muss man leben können. Ich ordne das ganze aber als ziemlich problematisch ein. Hab aber nen Lösungsvorschlag/Kompromiss für manche Einsatzzwecke, mit dem ich leben könnte. Der Vorteil der Maschinen ist ja, dass sie riesige Datenmengen in einer sehr kurzen Zeit verarbeiten können. Wenn man jetzt z.B. den medizinischen Sektor nimmt, finde ich es okay, wenn Machine Learning für Assistenzsysteme verwendet wird, aber letztlich immer ein Arzt die Entscheidung trifft. Der kann dann Ideen aus so ner Anfrage ziehen, die er sonst evtl. nicht gehabt hätte, weil er ja gar nicht so viele Beispiele kennen kann, wie das System. Man darf das Ganze halt nicht so weit entarten lassen, dass sich Ärzte dann blind auf diese Angaben verlassen dürfen und auch nicht praktisch können.

      Bei so Themen wie autonomes Fahren ist es schwierig, weil da ja als Ziel eben die Autonomie steht. Dass man da extrem viel Testen muss, ist die minimale Voraussetzung. Bin mir trotzdem nicht sicher, wie gut ich das ganze finde. Für die Erkennung von Objekten bleibt einem nicht viel anderes übrig als da auf machine learning zurückzugreifen, weil alle anderen Ansätze (die ich kenne) schlechtere Erkennungsraten liefern. Wenns jetzt aber um Handlungsdirektiven geht, find ich das ganze schon sehr Abstoßend. Die Überprüfbarkeit von Ergebnissen ist für mich der große Kritikpunkt, weswegen ich so ne KI niemals an kritischen Punkten sehen möchte. Man gibt halt Kontrolle ab, die, wenn sowas mal etabliert ist, nicht mehr zurückgewonnen werden kann. Wenn so n Schachcomputer oder so solche Algorithmen verwendet schadet das ja keinem, wenn da mal was unerwartetes passiert, bei kritischen Systemen schauts halt anders aus.

      Was praktisch passiert ist, dass man in seinen Algorithmus auf dem die Entscheidungsfindung beruht so lange Voodoo anwendet, bis gegen die Testdaten ne maximale Erkennung erzielt wird. Wenn man Verhalten findet, dass man nicht möchte, doktort man das weg. Das ist aber viel Trial and Error statt kausalen Überlegungen. Man kann da keine Sicherheit schaffen. Im Gegensatz zur Qualitätssicherung wie z.B. in der Softwareentwicklung für Flugzeuge kann man daran aber auch nichts verbessern. Auch bei den Flugzeugen gibts Bugs, aber im Vergleich zur normalen Softwareentwicklung auf nem ganz anderen Niveau. Und bei machine learning bekommt man diesen Unsicherheitsfaktor niemals in Griff. Außer man kennt alle Testfälle. Wenn wir für machine learning einen Weg finden alle möglichen Entscheidungen zu testen, die die Machine jemals treffen müssen wird, dann könnte man so ein System zwar nicht nachvollziehbar, aber kontrolliert einsetzen. Deswegen --> Mehr (relevante) Testdaten sind immer besser.

      Rein technisch gesehen ist es aber ein super interessantes Thema. Versteh jeden, der in dem Bereich forschen/arbeiten will. Ist auch keine Magie was da passiert. Man darf aber auch nicht zu viel Vertrauen in so ein System stecken. Ist und bleibt halt meistens ne Wahrscheinlichkeitsrechnung. (Ich kenne zumindest keinen Ansatz, der nicht darauf herunterzubrechen ist. Falls da jemand was hätte, würd ich mich über nen Hinweis freuen =)
      There are 10 types of people - those who understand binary, and those who don't.
    • Solange damit weniger Unfälle passieren als durch Menschen ist mir das gut genug.
      (+ wenn jeder so ein Auto hätte, gäbe es vermutlich gar keine Unfälle mehr)
      "I'd only suggest that you try to understand other people. Try to learn empathy"
    • Die Technik ist einfach noch nicht ausgereift. Hier kommt aber wohl auch menschl. Versagen dazu. Der Autopilot darf eigentlich noch nicht unbeaufsichtigt verwendet werden aber wie es ausschaut hatte der Fahrer nen Film geschaut gehabt. Allgemein gibts aber zu wenig Infos um den genauen Ablauf nachvollziehen zu können.

      Denke aber auch, dass solange es Netto sicherer ist, braucht die Technologie nicht perfekt sein. Man muss es nur besser machen.

      Was mich hier eher stört ist, dass die Pressemitteilung mal wieder einfach nur übernommen wird statts eigene Nachforschungen zu machen (Bei Heise das selbe). Ne kurze Googlesuche findet im englischsprachigen Raum nämlich mehr Infos. z.B. den zugehörigen Polizeibericht. Die sind nicht unbedingt zuverlässiger (der Truckfahrer hat ja n eigenes Interesse an seiner Seite der Story), aber auch nicht schlechter als die Pressemitteilung durch Tesla.
      There are 10 types of people - those who understand binary, and those who don't.
    • Aro schrieb:

      Solange damit weniger Unfälle passieren als durch Menschen ist mir das gut genug.
      (+ wenn jeder so ein Auto hätte, gäbe es vermutlich gar keine Unfälle mehr)
      Dir schon, aber weniger rational denkenden Menschen nicht. Die sind leider in der Mehrheit. Hinzu kommt die verzerrte Wahrnehmung, dass die allermeisten denken sie wären super Autofahrer und sie selbst würden ohnehin keine Unfälle verursachen.
      I am in extraordinary shape, but I do not think I could survive a bullet in the head.
    • Grimm schrieb:

      devilchen schrieb:

      der morgendliche arbeitsweg verläuft ohne nennenswerte ereignisse
      inb4 dein tesla autopilot bringt dich um
      Das größte Problem an der Sache ist, dass das Teil tatsächlich Autopilot heißt. Die Funktionalität ist ja eher die des Autopiloten in einem Flugzeug (Höhe, Geschwindigkeit und Kurs halten) mit n paar Boni wie Abstandshalter. Von nem autonomen Auto ist das noch weit entfernt. D.h. der Fehler ist davon auszugehen, dass der Tesla "Autopilot" autonom genutzt werden kann. Wer das tut gefährdet sein Leben. Ist aber auch nicht der gedachte Einsatzzweck. Würde also sagen, dass zum einen der Fahrer Schuld ist, der das Ding nicht beaufsichtigt und Tesla trägt für mich auf jeden Fall ne Teilschuld, weil die das Teil völlig falsch bewerben. Sollte man sich mal geben, dass wenn man den "Autopiloten" nutzen will nen Waiver für Tesla unterzeichnen muss.
      There are 10 types of people - those who understand binary, and those who don't.
    • @watnuss ich stelle es mir unglaublich unangenehm vor, wenn mein Auto an sich selbstständig fährt (Autopilot wie im Flugzeug + spurassistens und abstandshalter, etc) und ich trotzdem permanent aufpassen müsste was los ist und jederzeit eingreifen können müsste. Wenn man normal fährt hat man ja was zu tun (lenken, abstand kontrollieren, Geschwindigkeit einhalten etc) und ist auch im fahren "drin". Wenn man jetzt während der fahrt plötzlich eingreifen muss hat man uU grad kein gefühl dafür wie stark man bremsen sollte/wie schnell man grad fährt etc.

      Denke das diese Zwischenstufe derzeit (Auto fährt an sich selbst, man muss nur jederzeit übernehmen können) kein wirklicher Vorteil ist.
      Byron - Attributmagier
      Der Korpothread

      Oster schrieb:

      Wenigstens shrodo denkt mit.





      "some games just feel so unthrowable until you suddenly lost"
    • Grimm schrieb:

      watnuss schrieb:

      Tesla trägt für mich auf jeden Fall ne Teilschuld
      nein
      Doch.

      Nette Diskussion. =) (Zumahl ich ja Argumente genannt habe, auf die du eingehen könntest)

      shrodo schrieb:

      @watnuss ich stelle es mir unglaublich unangenehm vor, wenn mein Auto an sich selbstständig fährt (Autopilot wie im Flugzeug + spurassistens und abstandshalter, etc) und ich trotzdem permanent aufpassen müsste was los ist und jederzeit eingreifen können müsste. Wenn man normal fährt hat man ja was zu tun (lenken, abstand kontrollieren, Geschwindigkeit einhalten etc) und ist auch im fahren "drin". Wenn man jetzt während der fahrt plötzlich eingreifen muss hat man uU grad kein gefühl dafür wie stark man bremsen sollte/wie schnell man grad fährt etc.

      Denke das diese Zwischenstufe derzeit (Auto fährt an sich selbst, man muss nur jederzeit übernehmen können) kein wirklicher Vorteil ist.
      Jain. Ich muss sagen n Abstandshalter ist schon ne nette Ergänzung zum Tempomat. Spurhalten hab ich noch nicht selbst ausprobiert und kann das deswegen nicht gut einschätzen. Stelle mir aber auch vor, dass ich das nicht wirklich nutzen würde. Abstandshalter ist für mich auch eher als zusätzliche Sicherung zu sehen, dass wenn ich mit dem Tempomat nicht aufpasse das Auto eingreift, wenn ich zu nah auffahre. Ebenso kann ein Spurhaltesystem sinnvoll sein, wenn ich von der Fahrbahn abkomme. In beiden Fällen nutze ich das aber eben nur als Assistenzsysteme und nicht als "Autopilot". Der Vorteil ist für mich also auch nicht, dass ich weniger aufpassen muss beim Fahren, sondern dass da ein zusätzlicher Sicherungsmechanismus ist, der evtl. Fehler von mir ausbügelt.

      Deswegen find ich es eben so falsch, wie Tesla ihre Assistenzsysteme bewirbt. Man tritt da einfach mit völlig falschen Erwartungen an das Auto heran und das ist das, was mMn dieses erste Leben gekostet hatte. (Es gab auch schon vorher Ausfälle/Fehler bei den Teslas. Die anderen Fahrer haben die aber mitbekommen und haben eingegriffen. So wie es sein sollte). Es ist ja eben nicht so, dass das Auto selbstständig fährt. Viel mehr als Spur und Abstand halten macht das Auto nicht.

      Die Systeme sind außerdem schonmal ein gutes System um Erfahrungen für späteres autonomes Fahren zu sammeln. Bin also mit der Entwicklung an sich schon zufrieden und find sie gut. Man muss halt die Risiken und das Können der Systeme richtig einschätzen. Und das ist n Schuh den sich Tesla anziehen muss. Tesla hatte bei mir bisher eig. nen ganz gutes Image. Ist jetzt wohl etwas schlechter.
      There are 10 types of people - those who understand binary, and those who don't.
    • watnuss schrieb:

      Doch.
      Tesla kommuniziert klar, dass der Fahrer jederzeit aufpassen muss und seine Hände am Lenkrad lassen soll.
      Soweit ich weiß musst du dir das durchlesen und dem zustimmen, bevor du das Update installieren kannst.

      Wer zu dumm/unfähig ist das zu befolgen ist eben selbst Schuld. Wüsste nicht, was Tesla da deutlich besser machen kann.
    • Benutzer online 1

      1 Besucher