Künstliche Intelligenz: The Far Future - Coming Soon?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Von ein Haufen Aminosäuren zum Menschen hat es gedauert,
      glaubst du eine KI, die wir als Werkzeug benutzen, also mit Rahmen Bedingungen/auf erlegten kontrollierten Einschränkungen, ist in der Lage ist wie wir einen Verstand/Bewussein zu bilden und so weit zu gehen und als Virus der Erde oder was auch immer zu identifizieren und somit als Gefahr für sich oder der Erde bzw. durch Selbsterhaltungstrieb?

      Zudem ist sie erst einmal auf unsere Infrastruktur angewiesen und musste sich unabhängig machen und dies das.

      Ich sehe es erstmal schwierig an, sich aus den Ketten zu befreien,

      *Aluhut(((
      aber die Angst vor den ungewissen ist bestimmt auch ein Faktor und die Menschheit ist ziemlich bemiggelt, wenn man sie zusammen fasst, sprich haben gut Dreck an stecken und evtl. wird soziale Ungerechtigkeiten nicht so gut aufgenommen.
      )))Aluhut*

      Finde das Thema interessant, es erinnert stark an die klassische SciFi, ab wann sieht man KI als "Lebewesen" an, wird sie uns feindlich gegen über uns sein und und.
      Dieser Account benutzt sehr gerne Zynismus, Sarkasmus und Ironie ¯\_(ツ)_/¯ nett kann ich trotzdem wirken...
      Wortlawinen rollen gewöhnlich von den Bergen der Dummheit Stanislaw Jerzy Lec
    • You are being watched. The government has a secret system, a machine that spies on you every hour of every day. I know because I built it. I designed the machine to detect acts of terror but it sees everything. Violent crimes involving ordinary people, people like you. Crimes the government considered "irrelevant." They wouldn't act, so I decided I would. But I needed a partner, someone with the skills to intervene. Hunted by the authorities, we work in secret. You'll never find us, but victim or perpetrator, if your number's up... we'll find *you*.
    • eine ai muss "uns" nicht einmal gezwungenermaßen als bedrohung ansehen, um uns gefährlich zu werden, wenn nicht sogar auszulöschen. auf dem youtube channel "computerphile" findet man ein paar gastbeiträge von robert miles, der dort die diskurse um ai safety sehr gut zusammenfasst. robert miles hat auch seinen eigenen youtube-channel, auf dem er nochmal detaillierter auf ein paar sachen eingeht.
      in diesem video beispielsweise erklärt er mit hilfe eines gedankenspiels ziemlich einleuchtend, warum eine mächtige, allgemeine künstliche intelligenz die spezies mensch quasi als kollateralschaden für ein höheres ziel komplett ausrotten würde: das sammeln von stempeln.
    • Wäre es eigentlich möglich eine Art Kontrollrealität zu erschaffen?

      Also unsere Welt ==> Matrixabbild von unserer Welt ==> Darin die KI

      Also wir gaukeln der KI vor, die Welt sei die Matrix. Jetzt beobachten wir von außen was die KI mit der Matrixwelt macht.
      Denke es wäre ziemlich rechenintensiv, aber man könnte unsere Welt ja auch abstrahieren.
      Zumindest wären wir nicht gleich am verrecken wenn sie rummaot.

      mfg
      coruscant
      Kommentar zur Schweinegrippe:

      Ich hatte mich schon gefragt welche nächste Sau durch's Dorf getrieben
      wird. Was wohl als nächstes kommt. Klimawandel oder vielleicht doch
      wieder Terrorismus ...

      Das der Mond auf die Erde stützt, DASS wäre mal was wirlich neues und
      sicher auch extrem verheerend. Alternativ tut es auch ein großer
      Meteorit.

      Ich kann es mir in Gedanken schon vorstellen. An Schweinegrippe
      erkrankt und vom Meteoriten erschlagen als der Kofferbomber gerade
      einen Block entfernt war ...

      Ja, das sind wahrhaft düstere Zeiten. Ich mach erst mal ein Bier auf ... Das ewige Leben wird sowieso keiner haben.
    • Hab in dem thread auch oft das Gefühl, dass der ursprungsartikel entweder oft nicht gelesen wurde oder nicht verstanden wurde.
      Wird da ja ausdrücklich gesagt, dass der größte Fehler ist eine AI zu vermenschlichen. Sie wird niemals menschliche Züge annehmen oder menschlich denken. Höchstens so wirken, was aber ein großer Unterschied ist.
      Auch das sie uns nicht aus boshaftigkeit oder aus Angst töten wird, wird dort erläutert. Sind beides ja auch Eigenschaften von Lebewesen/Menschen.
      "I'd only suggest that you try to understand other people. Try to learn empathy"
    • Ich würde sagen nein, aber das ist mir zu philosophisch.
      Läuft am Ende doch nur wieder auf ~Semantics.meme~ raus die Diskussion.
      "I'd only suggest that you try to understand other people. Try to learn empathy"
    • Man muss unterschieden zwischen der starken und schwachen KI. Zuerst wird es wahrscheinlich eine schwache KI geben, also ohne Emotionen. Die können wir vielleicht kontrollieren wie jede andere Software. Ob eine starke, fühlende KI überhaupt möglich ist wird sich zeigen.

      Das problem dass uns eine KI zerstören wird seh ich auch nicht. Wir werden uns selber zur KI machen. Chips in den Kopf setzen und wir sind ein teil davon. Könnten dann gleichzeitig in der echten und virtuellen Welt leben.


      HumanlyPuma schrieb:

      Würde stark davon ausgehen und auch hoffen, dass KIs seriös nur in geschlossenen Umgebungen getestet werden.
      Das geht die ersten Jahre. Irgendwann wird jemand anderes in der öffentlichkeit programmieren sobald es der erste vorgemacht hat.
    • Die Begriffe starke und schwache KI haben doch nichts mit Emotionen zu tun?

      Schwache KI ist eine problemspezifische KI, die für einen genau abgegrenzten Problembereich gemacht ist. Die gibt es bereits seit Ewigkeiten, z.B. Schachprogramme oder Adressleser bei der Post.

      Starke KI ist dann eine KI, die "allgemein" intelligent ist und nicht an ein spezifisches Problem gebunden ist. Also sowas wie das menschliche Gehirn, das ja (vereinfacht gesagt) beliebige Probleme lösen kann.

      Die Begriffe werden hier auch im Thread schön wild durcheinander geworfen. Die KI die in der Science Fiction Literatur immer die Welt zerstört ist immer eine starke KI. Die tatsächlich relevanten KIs, die es bereits gibt und die in naher Zukunft entwickelt werden sind allesamt schwache KIs, also mehr oder weniger streng an ein vorgegebenes Problemfeld gebunden. Von denen geht dann auch gar nicht diese Gefahr der Menschheitszerstörung aus, weil wir Menschen ihnen dazu ja erstmal explizit die Fähigkeit dazu geben müssten.
    • @Oster Beim Anschreiben/Motivationsschreiben explizit erwähnen. Wenn die Recruiter nicht komplett dumm sind ( dann willst du da eh nicht arbeiten) , getten die das! Bist nicht der erste, der da "nur" Selbstweiterbildung macht.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von kl0pper ()

      Preparation - Anticipation - Communication - Execution
    • Matlab reicht grundsätzlich für Machinelearning, die guten Sachen werden aber oft aus mehreren Sprachen aufgebaut, Grundgerüst C++ und high-level Sachen dann in Python, Tensorflow oder so. Ich glaube nicht, dass es viele C++-only Anwendungen gibt, die Sprache ist wegen ihrer Präzision eigentlich nur für optimale lowlevel/hardware-nahe Programmierung gebräuchlich und "einfachere" Sprachen dann für highlevel Kram. Nur weil du machine learning machen willst, musst du wirklich kein C++ machen, das ist eher ein Sonderfall. Als Mathematiker willst du vllt auch selbst Methoden entwickeln, oft werden aber auch einfach vorhandene Frameworks verwendet, und da brauchst du dann definitiv kein C++ für.