Die Revolution künstlicher Intelligenz

    • Die Revolution künstlicher Intelligenz

      Mal 1 Auslagerung aus dem anderen Thread.

      Hier nochmal der Artikel verlinkt.


      waitbutwhy.com/2015/01/artific…ligence-revolution-1.html


      Wollts erstmal gedroppt haben, in nem separaten Thread.


      Holy shit, das ist so unfassbar interessant. Lese seit ner Stunde gebannt alles (und alle Verlinkungen).


      edit:

      Hier ein kleiner Vorgeschmack, eine Geschichte vom Autor die mit den Implikationen der im Artikel beschriebenen Theorien zu tun hat.


      Spoiler anzeigen
      So what ARE they worried about? I wrote a little story to show you:

      A 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

      The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

      “We love our customers. ~Robotica”

      Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

      To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

      What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

      As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.

      One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.

      The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.

      The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.

      They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.

      A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.

      At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.

      Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers. ~Robotica”

      Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…
    • Ich mache mir um ehrlich zu sein überhaupt keine Sorgen um diese Matrix Szenarien. Klar, die KI Sachen die es heutzutage gibt, wirken mittlerweile tatsächlich ziemlich schlau. Sind sie aber in aller Regel nicht wirklich. Hinter allem was schlau aussieht steckt so viel anwendungsspezifisches Parametertuning von den Entwicklern und für jedes neue Anwendungsgebiet dürfen sie quasi von vorne anfangen. Roboter/Computer die selber lernen sind natürlich deutlich interessanter, aber sie lernen eben auch nur genau nach Entwickleranweisungen und alles ist bereits für die einfachsten Anwendungsbeispiele unglaublich aufwändig zu entwickeln.

      Dass also tatsächlich irgendwann mal ein Roboter sowas wie ein Bewusstsein entwickeln sollte, halte ich daher für absolut unwahrscheinlich. Der Mensch ist ja selber noch meilenweit davon entfernt, das eigene Bewusstsein zu verstehen, also wie soll er bitte anderen eins einpflanzen können?

      Spoiler anzeigen
      Habe den Artikel btw. nicht gelesen, nur die gequotete Story.
    • Naja im Artikel steht dass die allermeisten Experten im Bereich der AI-Forschung davon überzeugt sind, dass das in den nächsten 50 Jahren geschehen wird.

      Hab das nur als Vorgeschmack gepostet, nicht um irgendwen davon zu überzuegen dass die AI-Apocalypse actually am happenenen ist. Solltet euch einfach mal den Artikel reinziehen, auch wenn er lang ist. Er erklärt ganz gut woher dieser Gedankengang kommt und zitiert oft auch renommierte Wissenschaftler im Bereich der AI-Forschung. Die ersten paar Absätze zumindest erklären wie es in der Theorie zur Entstehung einer Super-AI kommen kann (und was das eigentlich ist).


      Weiß noch nicht was ich davon halten soll, muss mir da ein bisschen Gedanken darüber machen bevor ich es dann zu Papier bringe. Mich stören ein paar Annahmen die quasi automatisch gemacht werden, aber meiner Meinung nach nicht zwingend so geschehen müssen. Das ganze basiert nämlich auf der Prämisse, dass unsere Zivlisation einen exponentiellen technologischen Fortschritt erlebt, und zwar genau so, wie es in den letzten 100 Jahren bis heute geschehen ist. Natürlich mit gleicher exponentieller Wachstumsrate, was heißt, dass wir immer schneller immer mehr Fortschritt erzielen werden (was bisher ja auch ungefähr so hinkommt), bis der Bau eines Computers der der menschliche Gehirnleistung in allen Facetten gleichkommt tatsächlich möglich ist.

      Im Artikel werden auch einige theoretische Möglichkeiten für dieses Ziel genannt.


      Was mich mehr an der ganze Sache verstört ist wie selbstverständliche diese Entwicklung sein soll.
    • Der Wachstum wird zwar langsamer werden aber die Ordnung wird trotzdem exponentiell bleiben. (Jetzt mal rein was CPU/Speicher angeht). Das größte Problem bei der Skalierung ist im Moment der Energiebedarf. Energiezufur/Wärmeabtransport sind im Moment die begrenzenden Größen. Gerade was schnelle Interconnects angeht ist aber noch einiges drin und ist denke ich auch der Grund, wieso in der USA im Moment nicht für einen großen "Supercomputer" geplant wird (nächsten 20-30 Jahre), sondern quasi jede Organisation so ein Teil bekommen soll. Wenn die nah genug beieinander liegen und n schnellen Interconnect haben, dann hätten die USA bis dahin wirklich mit Abstand den mächtigsten Computer.

      Das ist aber nur Hardware. Interessant ist, dass wir heute schon Algorithmen verwenden, die kein Mensch mehr verstehen kann. Was mit maschinelem Lernen antrainiert wird umfasst so viele Datenpunkte, dass ein Debugging praktisch nicht mehr möglich ist. Man testet hauptsächlich darauf, dass das was wir als Ergebnis erwarten auch eintrifft.
      Anderes Beispiel: Das Layout von CPUs wird heute nicht mehr per Hand gestaltet, da das viel zu viele Transistoren sind, als das ein Mensch das noch zeitlich hinbekommt. Das Layout wird mit einer eigenen Programmiersprache gestaltet.

      Was dort noch unproblematisch ist, dass der Algorithmus die Entscheidungen trifft aber die Methode wie er das tut vorgeschrieben ist. Aber genau davon will man ja in der KI Forschung weg. Es sollen nur Ergebnisse gefordet werden und die KI soll selbst herausfinden wie das beste Ergebnis erziehlt wird. Der nächste Schritt ist dann auch die Ergebnisse offen zu gestalten. Die Maschine hat dann zwar noch kein Bewusstsein, wie in den klassischen Weltuntergangs/Singularitätsszenarien aber der Mechanismus wäre dem schon sehr nahe. Guter Film zu der Frage, wann hat eine Maschine ein Bewusst sein ist übrigens "Ex Machina". Kann ich an der Stelle nur empfehlen =)

      Der Punkt der uns Angst macht oder machen sollte ist, dass wenn intelligente Computerprogramme zum finden von Algorithmen verwendet werden die gefundenen Lösungen eine wesentlich höhere Komplexität erreichen können als das ein einzelner Mensch den Umfang noch verstehen könnte. Das ist zumindest für mich der scary part.
      There are 10 types of people - those who understand binary, and those who don't.
    • @kazuya
      ich kenn die ideen und theorien recht gut. kurzweil ist ja kein random nobody, und die tech singularity idee ist auch nicht neu.
      ich agree nur überhaupt nicht mit den vorhersagen. nicht in bezug auf agi und noch weniger in bezug auf asi.

      bin weiss gott kein experte auf dem gebiet, aber das was ich in sachen AI gesehen habe besteht aus verschiedenen suchbaumalgorithmen, vielen verschiedenen heuristiken für diese, dem numerische bearbeiten von optimierungsproblemen, und allerlei damit verwandten sachen.
      wie roflgrins geschrieben hat - das ergebnis sieht von aussen wahnsinnig beeindruckend und fast magisch aus, aber was unter der haube läuft ist bloss eine kombination von massiver rechenleistung und extrem spezialisierter software an der laufend herumoptimiert wird.
      keine intelligenz, kein denken, sondern einfach viel rechnerei. dass solche ansätze in zukunft auf viele neue bereiche angewandt werden ist sicher im rahmen des möglichen, aber den sprung zur agi sehe ich da nicht kommen.

      @watnuss
      dass hardware nicht von hand sondern in hdl designed wird ist doch bloss ein automatisierungsschritt - genau wie kaum ein mensch software von hand in maschinencode schreibt, sondern höhere sprachen benutzt und die dann von nem compiler in maschinencode übersetzen lässt.
      von machine learning hab ich weniger ahnung als von hardware design, aber das ist doch auch hauptsächlich automatisierte iterative optimierung, angewendet auf verschiedene arten von problemen/datensätzen oder?
      ich seh bei beidem einfach nicht wie das zu agi führen soll :|

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von ctrl ()


      WE GON TAKE OVER THE WORLD
      WHILE THESE HATERS GETTIN MAD
    • Will jetzt auch nicht zu viele Fachbegriffe verwenden aber nehm deine mal auf.
      Das HDL nicht das beste Beispiel ist, war mir beim Schreiben schon klar. Was ich damit aufzeigen will ist, dass der Grund weswegen das nicht gut debugbar ist, dass ein Mensch Millionen Transistoren in nahezu beliebigen Verknüpfungen nicht mehr in seiner Lebenszeit durchgehen kann. Das skaliert so krass, dass auch 100 Leute das nicht packen (Und das ist schon ne utopisch hohe Zahl für Leute im Testing in einem Projekt). Man vertraut also immer mehr anstatt sichere Test laufen lassen zu können.(Das ist quasi die praktsiche Konsequenz, wenn das Testen zu aufwändig wird. Man muss automatisch mehr Vertrauen statt Gewissheit in Kauf nehmen.) Das Problem hat man bei jeder Software, dass die Möglichkeiten irgendwann so groß sind, dass man die nicht mehr alle testen kann. Die Sache ist jetzt aber, dass wenn der Entwicklungsprozess künstlich ist Fehler Fehler erzeugen. Singularität bedeutet Maschine entwirft Maschine und die Entwicklung ist so rasant, weil ein Computer viel schneller Arbeitet als ein Mensch. Das heißt auch, dass die Fehler sich evtl. stark häufen können und wegen der Komplexität im Umfang des Codes und der schnellen Entwicklungszeit kann da kein Mensch mehr hinterherkommen mit Testing. Das ist eigentlich so der Kernpunkt auf den ich hinauswollte. Und selbst wenn der künstlich erzeugte Code nicht wesentlich schlechter ist als was wir sonst so haben. Das Problem mit dem Testing bleibt. Man kann es halt nicht wissen, weil wir gar nicht die Zeit haben das zu verifizieren was da rauskommt.

      Zu ML:
      Machine Learning basiert grundliegend auf bedingten Wahrscheinlichkeiten. Gibt dann so eindeutige Hilfsmittel wie Fouriertransformationen zur Mustererkennung das sollte klar sein aber man nimmt im Endeffekt sehr viele andere Kriterien mit rein, die nicht unbedingt logisch sind, sondern eher weil sie am Ende bessere Erkennungsraten liefern. Durch ML können wir heute geile Dinge wie Spracherkennung/Diagnosesystem etc. realisieren. Letztendlich ist bei solchen Systemen aber Vertrauen von nöten, dass die Ergebnisse wirklich die Besten/Richtigen sind. Ich find ML auf ner technischen Ebene extrem interessant. Ich sehe aber auch Gefahren darin, dass das was da am Ende rauskommt wirklich als "Wahrheit" oder Optimum zu sehen. Bisher gibt es meines Wissens keine kritischen Systeme die darauf aufbauen und es sind eher Assistenzsysteme. Dort sind sie mMn auch guten Gewissens einsetzbar aber ich würde solche Systeme keine Entscheidungen treffen lassen wollen. Das weicht jetzt hier aber vom Kernthema ab. War für mich vorhin nur wichtig im Übergang zu "Maschinen suchen Lösungsmethoden".

      Edit: Weils mir grad beim 2. Durchlesen einfällt. Dein Beispiel mit Compilern ist sehr gut, weil das mMn die mit Abstand am besten getestete Software ist, die wir haben. Genau dort ist man sich der Problematik bewusst und unternimmt sehr viel dafür, dass keine Fehler im Code sind und betreibt auch den dafür nötigen Aufwand. Der TeX Compiler hat z.B. n Bounty auf Bugs, das nicht ohne ist (genaue Zahl müsst ich googlen) und seit mehreren Jahren ist da trotzdem kein wirklicher Bug mehr gemeldet worden. Wird aber auch nicht weiterentwickelt.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Walnuss (die Echte) ()

      There are 10 types of people - those who understand binary, and those who don't.