Die drei Robotergesetze

  • Diskussion

  • sammy254
  • 3185 Aufrufe 53 Antworten

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • keinerlei große Fortschritte die mir Angst machen könnten, dass uns die Roboter irgendwann Probleme machen.

    warum sollten wir angst haben?

    Manche Menschen scheinen schon heute von den selbst erschaffenen Robotern (Fernsehen und Computer) regiert zu werden. Da hat wohl jemand zuviel Terminator und Matrix geschaut.

    Inzwischen gibt es einige beachtliche Dinge, die Einzelheiten für die meisten Sachen können wir inzwischen auch, nur setzt natürlich (abgesehen von Südkorea, den Amis und noch ein paar Verrückten) keine Roboter zusammen, die auf Zerstörung ausgelegt sind.
    Die Entwicklung mag nicht so weit sein, wie in den Filmen, aber sie ist inzwischen schon sehr weit und in 25 Jahren dürfte es soweit sein, das wir eine Art Terminator haben, zudem liegen die meisten Hauptprobleme im physikalischem Bereich.

    mfg
    neo

    //edit:
    Hier noch ein interessanter, wenn auch kurzer, Artikel dazu: futurezone.ORF.at IT-Chronik
  • Ich geh nochmal zurück auf das ursprüngliche threadthema...;)

    Nach einiger Recherche - endlich hab ich's mal wieder gelesen :D -
    fand ich auch die diversen Überarbeitungen der ursprünglichen drei Gesetze...
    zuletzt in der Caliban-Triologie...von Asimoov entwickelt...von Roger MacBride Allen dann letzlich umgesetzt.
    Hier noch enmal die Entwicklung der Robotikgesetze:

    erste Fassung (aus: Ich, der Robot - Runabout)
    1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel Eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert.

    Später kam noch das nullte Gesetz dazu (Das galaktische Imperium)
    0. Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt.
    (alle anderen Gesetze wurden dahingehend verändert, das die Ergänzung dann lautete: es sei denn, dadurch würde das Nullte Gesetz verletzt)

    Später gab es noch eine Revision in den "Caliban"-Gesetzen (aus der Caliban-Triologie)
    * Ein Roboter darf keinen Menschen verletzen.
    * Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
    * Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
    * Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

    ich denke, diese Neufassungen drücken deutlicher die Intention Asimovs aus ;)
    und....insofern würden sie den Roboter bei der threadfrage...
    halt nicht springen lassen :D
  • jo, der unterschied von den klassischen zu den calibanischen gesetzen liegt in dem wort "zusammenarbeiten"...ich glaub allerdings dass der threadersteller die ersten gesetze meint.

    @topic #2 :D

    hui, das ist ein verdammt großes thema.
    ich denke, dass der knackpunkt bei der stelle liegt, wo man zwischen mensch/höherem lebewesen und maschine unterscheidet.
    ein roboter, der gleich oder besser denkt wie ein mensch, darf meiner meinung auch als mensch angesehen werden.
    allerdings - ein roboter, der den 3 gesetzen folgt...darf man diesen als menschen ansehen? ich denke das eben diese gesetze ihn wieder zur arbeitsmaschine machen. sie nehmen ihm nämlich das bewusstsein, das gewissen und die moral.
    alles was er tut, was er denkt, bringt er mit den gesetzen in einklang - er hat keinen freien willen. (ok, man kann auch sagen dass der mensch keinen hat, würde jetzt allerdings zu tief gehen.)

    man mag jetzt diesen raub der gefühle als unterwerfung ansehen, aber das ist falsch - nur weil etwas das potential hat, ein lebewesen zu sein, heißt das imho nicht, dass man diesen werdegang nicht aufhalten kann. wäre es bereits so weit, dass roboter frei denken könnten, man könnte es in der tat nicht vertreten ihnen solche gesetze aufzuzuwingen.
    aber sie können nicht frei denken, sie sind maschinen.

    wie gesagt, find ich ein super thema^^

    LukZen
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • allerdings - ein roboter, der den 3 gesetzen folgt...darf man diesen als menschen ansehen? ich denke das eben diese gesetze ihn wieder zur arbeitsmaschine machen. sie nehmen ihm nämlich das bewusstsein, das gewissen und die moral.

    Der Roboter folgt erst den drei Gesetzen, weil du ihm diese auferlegst, weil er ein Roboter ist, was du damit belegst das er diesen drei Gesetzen folgt. Das funktioniiert aber nicht, du kannst eine Sache nicht mit der Sache selbst begründen.

    aber sie können nicht frei denken, sie sind maschinen.

    wir Menschen können auch nicht frei denken.
    (Gibts grad ein super Thread im Pol-Bereich dazu)

    dass man diesen werdegang nicht aufhalten kann.

    natürlich, was nicht existiert stellt auch kein Problem da, aber früher oder später wird es doch ein Problem darstellen, da wir nicht die Finger davon lassen können.

    mfg
    neo
  • ...alles zu komplex:

    er wird garantiert nicht runterspringen!!!

    um das sagen zu können brauche ich keine Regeln, das basiert auf Erfahrungswerten. Maschienen machen niemals genau das was man ihnen sagt, bestes Beispiel dafür ist mein computer.......

    Ich tippe mal, dass er sich am linken Ohr kratzt, wenn ich ihm sage er soll springen.:mad:
    [COLOR="LemonChiffon"]Wer das lesen kann, hat den Kontrast zu hoch eingestellt![/color]
  • sry zarder, über den punkt sind wir schon länger hinaus^^

    Der Roboter folgt erst den drei Gesetzen, weil du ihm diese auferlegst, weil er ein Roboter ist, was du damit belegst das er diesen drei Gesetzen folgt. Das funktioniiert aber nicht, du kannst eine Sache nicht mit der Sache selbst begründen.


    du hast recht, auf den ersten blick mag das so scheinen.
    ich begründe die sache allerdings nicht mit der selben - es gibt nämlich von vornherein keine freidenkenden roboter, da sie alle den 3 gesetzen unterliegen. das macht sie wie gesagt zu maschinen. die gesetze verhindern quasi den werdegang zu menschlichen wesen.
    ich würde die sache mit sich selber begründen, wenn ich bereits wesen hätte, die frei denken und diese dann den gesetzen unterwerfen würde.

    wir Menschen können auch nicht frei denken.

    stimmt, ich unterstütze diese theorie vollkommen, genau wie die sache mit dem schicksal. allerdings hat das denk ich nicht nicht viel mit dem thema zu tun, da roboter nicht menschlich sind, s.o.


    natürlich, was nicht existiert stellt auch kein Problem da, ...

    hmm, dadurch gibst du mir eigentlich recht, oder?
    es existieren und es werden auch keine menschlichen roboter existieren, ergo kein problem.

    ...aber früher oder später wird es doch ein Problem darstellen, da wir nicht die Finger davon lassen können.

    die finger wovon lassen?
    von der technischen entwicklung?
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • stimmt, ich unterstütze diese theorie vollkommen, genau wie die sache mit dem schicksal. allerdings hat das denk ich nicht nicht viel mit dem thema zu tun, da roboter nicht menschlich sind, s.o.

    Ich glaube du erwartest zu viel von Menschen. ;)
    Wir sind auch nur Dinge, die aus ganz normalen Atomen zusammengebaut sind. Und früher oder später wird man das nachbauen (wenn auch nicht mit den gleichen Molekülen), stells dir so vor, wie wenn du einmal einen Kran aus Holz und einen aus Metall baust, sind beides Kräne, auch wenn sie vom Aufbau unterschiedlich sind.

    du hast recht, auf den ersten blick mag das so scheinen.
    ich begründe die sache allerdings nicht mit der selben - es gibt nämlich von vornherein keine freidenkenden roboter, da sie alle den 3 gesetzen unterliegen. das macht sie wie gesagt zu maschinen. die gesetze verhindern quasi den werdegang zu menschlichen wesen.

    jo, die gesetze verhindern den Werdegang zum menschlichen Wesen. Und da sie nun keines sind, sagst du, darf man die Gesetze auch anwenden.
    Also begründest du die Gesetze doch mit den Gesetzen selbst. ;)

    stimmt, ich unterstütze diese theorie vollkommen, genau wie die sache mit dem schicksal. allerdings hat das denk ich nicht nicht viel mit dem thema zu tun, da roboter nicht menschlich sind, s.o.

    Wenn wir die Maschinen und die Menschen vergleichen wollen, ist es nötig die Menschen zu kennen, ansonsten könnten wir auch nicht vergleichen. ;)

    hmm, dadurch gibst du mir eigentlich recht, oder?
    es existieren und es werden auch keine menschlichen roboter existieren, ergo kein problem.

    Nein, es war darauf bezogen, so lange wir keine Roboter haben brauchen wir keine Gesetze und müssten uns demnach nicht damit auseinandersetzen. Da wir aber irgendwann welche herstellen müssen wir uns damit auseinandersetzen.

    die finger wovon lassen?
    von der technischen entwicklung?

    Yep.

    mfg
    neo
  • ich würde glatt sagen: Deadlock!
    Wie schon weiter oben beschrieben, muss er eigentlich regel 2 ausführen, aber wenn er das macht, kann er den mensch nicht mehr beschützen.
    Wahrscheinlich steht er da und überlegt 100Trillionenjahre (oder wie lange die Energiequelle halt hält) und geht dann einfach aus, fällt Kopfüber die Brücke runter und hat seinen Befehl "erfüllt".

    so long
  • First of all ;) :guck: Asimov, Isaac - SciFi-Edition, 40 Bände ;) wird noch erweitert
    freesoft-board.to/f364/upload-…scifi-edition-188816.html

    LukZen schrieb:

    jo, der unterschied von den klassischen zu den calibanischen gesetzen liegt in dem wort "zusammenarbeiten"...ich glaub allerdings dass der threadersteller die ersten gesetze meint.

    @LukZen....NEIN ;)
    Die wesentliche Erweiterung bzw. Korrektur dieser späteren Gesetzesvariationen liegt in der Veränderung der Prioritäten durch die jeweils einschränkenden Erweiterungen/Erläuterungen der Gesetze

    Im galaktischen Imperium heisst es dazu
    0. Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt.
    1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, dadurch würde das Nullte Gesetz verletzt
    3. Ein Roboter muss seine Existenz beschützen, es sei denn, dadurch würde das Nullte Gesetz verletzt.

    Und insofern darauf bezogen...ist für mich die Sachlage jetzt völlig klar :D
    Der Roboter darf nicht auf Grund eines sinnlosen Befehls seine Existenz vernichten ...dies bedeutet ja wohl auch...
    Die menschliche Gesellschaft schützt sich dadurch vor "Investitionsverlusten" ;)
    Die Caliban-Gesetze (siehe unten) varieren genau diese Dogmen lediglich.

    Zum "anderen" Thema....bzgl. höheres Wesen, Bewusstsein etc.
    bieten sich u.a. auch div. andere Romane von Asimov an...z.B. "Der Hundertjährige" etc.
    Aber...ein Roboter, welcher zukünftig in der Lage ist, selbstständig Entscheidungen zu fällen,
    sollte meiner Meinung nach auch durch entsprechende ethische Gesetze geschützt werden.
    Inwieweit die Menschheit je in der Lage sein wird, derartiges überhaupt in dieser Perfektion zu "produzieren" ;)...
    lasse ich dabei einfach mal offen :D
  • ich sag er springt! kurze und knappe antwort aber da die gesetze mit prioritäten versehn sind muss er springen da der selbstschutz als letztes und somit als am ehesten nicht beachtet bzw die andern wichtiger sind!
    IP-Verteilung:z.Z. keine..:(
    Upload's: Kommen bald wieder welche ;)
    Blacklist: Niemand
    Bevorzugt: [bUff€r-Cr€w] ; HiFly
  • es wäre imo schlimm wenn der roboter nicht springen würde, egal welche gesetze herrschen .. :(

    der roboter hat nicht zu richten ob es für ihn gut ist, er muss den menschlichen befehl als oberste priorität sehen. er kann ja die komplizierten gedankengänge des menschen nicht nachempfinden
    ob jetzt nur aus spaß oder tiefgründig
    ~ The force will be with you, always ~
  • zum muesli,
    nunja, der frager hat ja die frage gestellt, in zusammenhang mit den gesetzen, die er benutzen will. und diesen nach muss er springen, auch wenn die handlung keinen sinn ergibt. ich verweise hierbei auf asimovs kurzgeschichte "robot al-76 geht in die irre", wo der robot gezwungen ist den disintegrator zu zerstören. ;)
    aber jetzt zig wälzer aufzublättern, die verschiedenen gesetze zu zitieren und auszulegen, würde hier doch an haarspalterei grenzen. der ersteller hat seine frage (glaub ich) richtig beantwortet bekommen und gut is doch^^.

    zum neo,
    falls wir so glücklich (oder auch nicht) sind und trotz klimaerwärmung/energiekrise/atomkriegen dieses zeitalter noch erleben dürfen, indem echte roboter gebaut werden, bin ich jedenfalls sehr gespannt, wie sich das ganze dann entwickelt.
    jetzt darüber zu diskutieren, ob wir den generell uns technologisch weiterentwickeln sollten oder nicht, würde ebenfalls zu weit gehen.
    ich hoffe mal du hast meinen standpunkt verstanden, die gesetze mit den gesetzen zu begründen...so sinnlos finde ich das nämlich gar nicht. was nicht menschlich ist kann man auch nicht unmenschlich behandeln. als "menschlich" zu sein meine ich nach wie vor die selbe psychische ebene zu haben wie ein mensch. hab schon auch sehr gu kapiert was du meinst, allerdings stimme ich mit diesem wie du siehst nicht so ganz überein :D .
    Weiter zu diskutieren macht imho keinen sinn, das ganze ist irgendwie stecken geblieben.

    MfG,
    LukZen
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • @LukZen: Da ist nur das Problem, wie du menschlich definierst:
    Durch das Gehirn? Die Empfindungen? Das Aussehen? Die Gefühle?
    Das Problem ist nur, dass das alles durch einen Roboter emuliert werden kann, das heißt das man keinen Unterschied erkennen kann, ob man jetzt einen Roboter oder einen Menschen vor sich hat.
    Natürlich geht das noch nicht mit heutigen Robotern, aber in nicht all zu ferner Zukunft wird das möglich sein (ich denke an so 50 Jahre, evt. auch ein wenig mehr).

    Wie unterscheidest du dann zwischen Roboter und Mensch?
    Durch die Entstehung? Obwohl, da müsste man dann über künstliche Befruchtung und so diskutieren.

    mfg, bloodycross

    PS: Machen wir einen eigenen Thread für sowas auf?
  • jetzt darüber zu diskutieren, ob wir den generell uns technologisch weiterentwickeln sollten oder nicht, würde ebenfalls zu weit gehen.

    Natürlich sollten wir uns weiterentwickeln, es ist nur das gleiche wie mit dem Wissen. Es ist alles neutral, erst der Mensch macht es böse oder gut.

    ich hoffe mal du hast meinen standpunkt verstanden, die gesetze mit den gesetzen zu begründen

    Das ist einfach keine Begründung, das widerspricht jeglicher Logik, ich versuchs dir mal an einem Beispiel zu verdeutlichen:
    Ich behaupte das es Gott gibt, und da es ihn (dadurch das ich es sage) gibt, gibt es ihn, wodurch meine Behauptung stimmt.

    so sinnlos finde ich das nämlich gar nicht. was nicht menschlich ist kann man auch nicht unmenschlich behandeln

    Etwa unmenschliches (wobei der Begriff, Wesen ohne Fähigkeit zu Denken, es besser trifft ;)) muss man natürlich nicht menschlich behandeln, auch wenn wir öfters dazu neigen, wie zum Beispiel ein Sofakissen in Form eines Teddybärs. :D

    als "menschlich" zu sein meine ich nach wie vor die selbe psychische ebene zu haben wie ein mensch.

    Natürlich, aber wir müssen einfach davon ausgehen, das wir irgendwann einen Menschen komplett aus anorganischen Stoffen herstellen können. ;)
    Stell dir einfach vor, wir nehmen einen Menschen und tauschen Stück für Stück aus, so wie jetzt schon zum Beispiel bei behinderten Menschen, die eine Prothese und einen Steuerungschip erhalten. Irgendwann haben wir alles ausgetauscht, und dadurch auch eine Menge gelernt, und können so den Menschen nachbauen, bis er irgendwann mit dem echtem Menschen von den Entscheidungen her, sprich vom Verstand, dem physischem, um das es dir ja geht genauso wie der Mensch ist.

    Weiter zu diskutieren macht imho keinen sinn, das ganze ist irgendwie stecken geblieben.

    Dann sollten wir es versuchen zu klären. ;)
    Wo hackts denn noch genau?


    Da ist nur das Problem, wie du menschlich definierst:
    Durch das Gehirn? Die Empfindungen? Das Aussehen? Die Gefühle?

    Genau da liegt in der Tat das Problem. ;)
    Wir wissen nicht mal, was uns Menschen ausmacht und warum wir so sind.

    Machen wir einen eigenen Thread für sowas auf?

    Ich find den ganz passend, aber mir ist es egal. ;)

    mfg
    neo
  • der threadname passt eigentlich, und es macht spass, weil sich so ne schöne debatte aus ner recht banalen farge entwickelt hat.

    definition mensch - die psychisch am höchsten entwickelte lebenform auf dem planeten erde.
    definition menschlicher roboter - eine lebensform von gleichwertigem oder höherem intellekt und komplexität wie der mensch
    definition roboter/maschine - eine sowohl komplexe als auch intelligente lebensform, durch die 3 gesetze allerdings als reine arbeitsmaschine fungiert
    so sehe ich die welt.

    und indem wir keine roboter ohne die 3 gesetze bauen, gibt es keine menschlichen roboter, sie bleiben spielzeugautos, um mein beispiel von weiter oben nochmal aufzugreifen. es gibt also keine lebensform, die wir dahergehend unterdrücken könnten.

    nehmen wir einen computer. auch ein computer hat gesetze: er muss indirekt dem menschen gehorchen (auch wenn es manchmal nicht so scheint :D ), also nach bestimmten regeln bestimmte ausgaben auf verschiedene eingaben machen.

    haben wir uns den computer dadurch zu unrecht unterwürfig gemacht?

    dasselbe würde für einen megacomputer gelten, der mobil ist, über umfassende sensorik verfügt und die komplexesten gedankengänge schafft. einen roboter.

    nun nehmen wir einen computer, der die selben eigenschaften hat, allerdings so konzipiert wurde, dass er von anfang an, ohne verankerte richtlinien, regelungen und gesetzen die welt erkunden kann und quasi tun und lassen kann was er will. einen menschlichen roboter, auch einfach mensch genannt.
    ihm könnten wir auf keinen fall unterwerfen, es gäbe auch keine gründe dafür.

    allerdings gibt es nunmal (eben aus diesen gründen) keine solchen roboter, und wie ich uns menschen kenne, wird es solche auch wohl kaum je geben.

    also bevor wir es zu solchen lebewesen überhaupt kommen lassen (der mensch will sowas nunmal eben verhindern), stoppen wir diese etwicklung indem wir ihnen das entscheidende stück menschlichkeit nehmen, eben die gleichwertigkeit mit dem menschen.
    und wir rauben ihnen dieses stück in keiner weise, denn noch, also bevor dieser entwicklung ist er ja nichts anderes als eine maschine. und durch die gesetze bleibt er diese auch.
    sowas wie menschlichkeit (im sinne von ähnlichkeit) oder gleichwertigkeit kann sich also gar nicht erst entwickeln.

    ein gutes, wenn auch sehr umstrittenes beispiel: abtreibung.
    wir nehmen einem lebewesen sein leben, bevor es eins hat. also kein mord oder ähnliches.

    LukZen
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • und indem wir keine roboter ohne die 3 gesetze bauen, gibt es keine menschlichen roboter, sie bleiben spielzeugautos, um mein beispiel von weiter oben nochmal aufzugreifen. es gibt also keine lebensform, die wir dahergehend unterdrücken könnten.

    Dies stimmt nicht ganz, den diese 3 Gesetze legen nur fest, wie sich Maschinen zu verhalten haben, aber nicht das sie gewisse menschliche Eigenschaften besitzen dürfen. Und darauf will ich eben hinaus, wir werden irgendwann den Punkt erreichen, an dem Mensch = Maschine.

    haben wir uns den computer dadurch zu unrecht unterwürfig gemacht?

    Ein Computer ist ein Schaltkreis, der kein Bewusstsein entwickelt, er zählt also nicht dazu.

    Ich glaube da hackts auch bei uns beiden grade, du magst irgendwie nicht anerkennen, das Maschinen genauso wie Menschen sein können, das sie unser Ebenbild sein können. ;)
    Siehe auch dieses Zitat:
    dasselbe würde für einen megacomputer gelten, der mobil ist, über umfassende sensorik verfügt und die komplexesten gedankengänge schafft. einen roboter.

    Für dich bleibt er nur ein Computer.
    Du vergisst aber, das diese Computer ein Bewusstsein entwickeln können, ein ich - und dann sind es Menschen.

    allerdings gibt es nunmal (eben aus diesen gründen) keine solchen roboter, und wie ich uns menschen kenne, wird es solche auch wohl kaum je geben.

    wieso glaubst du das?
    Menschen sind neugierig und wollen alles ausprobieren und sie wollen ihre Macht ausprobieren.

    mfg
    neo
  • und eben weil menschen ihre macht ausprobieren wollen werden sie doch nie wesen entwerfen die ihnen überlegen sind. -> 3 gesetze.

    computer/roboter mit 3 gesetzen -> kein wahres bewusstsein
    computer/roboter ohne 3 -> bewusstsein

    ich dachte das hab ich grad so dargelegt^^
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • Nein, du legst es gerade falsch rum dar, du sagst wegen den 3 Gesetzen sind sie keine Menschen, ich sage sie Menschen, weil sie wie Menschen handeln.

    Und du kannst dir sicher sein, das Menschen es ausprobieren wollen, alleine schon, weil sie sich selbst erforschen wollen und keine Grenzen kennen ;)

    mfg
    neo
  • @LukZen
    Also jetzt enttäuscht Du mich aber schon...;)
    Eine derartig anthropozentrische Sicht des ganzen Themas
    Maschine/Roboter - Mensch halte ich - gelinde gesagt - für sehr verkürzt,
    eher aber noch ....auf die Zukunft bezogen.... für arrogant ;)
    Asimov und andere Science Fiction Autoren haben darüber ja nicht nur einfach viele Geschichten geschrieben, sondern sich nebenbei auch ernsthafte Gedanken
    über eine zukünftige, hochtechnisierte Gesellschaft gemacht.
    Wie der Begriff Science Fiction ja schon ausdrückt, geht es in diesem Genre
    um Zukunftsutopien.....aber nicht um reine Fantasy !
    Wenn Du Dir ausserdem mal vergegenwärtigst, wie viele früheren Zukunftsutopien inzwischen längst Realität sind.....

    Hierbei zudem - so mal eben völlig flapsig - darin enthaltene Gedankengänge (von ihm od. hier von mir zitierte^^) über zu entwickelnde Gesetze zur späteren Regelungen des geordneten Miteinanders von Mensch und Maschine auch noch als Haarspaltereien abzutun....tztztz....zudem Du die Hilfsmittel der Logik doch nur sehr einseitig benutzt.....

    lukZen schrieb:

    und eben weil menschen ihre macht ausprobieren wollen werden sie doch nie wesen entwerfen die ihnen überlegen sind.

    Genau das...ist heute schon - auch ohne explizite Maschinenintelligenz - tw. längst Realität ! ;)
    Kein Mensch kann heutzutage - auch im Zuge der Rationalisierungen - mit gewissen Arbeitsmaschinen mithalten...weder an Kraft, Ausdauer noch an Verarbeitungsgeschwindigkeit....
    Zudem haben wir doch schon massive Probleme mit dem von uns Geschaffenem (z.B. Atomspaltung) vernünftig umzugehen.
    Insofern sind Gesetze & Kontrollen, welche den jetzigen & zukünftigen Umgang damit regeln, doch zwingend notwendig.....und je komplexer die Maschinen bzw. Programme, um so klarer müssen diese Regelungen sein.

    Das hier einige bei dieser Diskussion völlig aussen vor lassen, dass so eine Maschine bzw. Roboter ein nicht nur hochkomplexes, sondern wirtschaftlich gesehen auch sehr teures Produkt ist...bleibt in der Entscheidungsfindung...aussen vor :rolleyes:...(Selbst)Zerstörung...
    Es wird doch jeder Entwickler & Produzent - neben dem Schutz der zu unterstützenden Menschen - auch dem Selbstschutz der Maschine immer eine hohe Priorität einräumen !
    Eure...auf Grund von Interpretationen... so schnell getroffene Entscheidung, dass eine Maschine sich auch OHNE Grund zerstören (lassen) muss....
    ist auch nach (wirtschaftlichen) menschlichen Gesichtspunkten eigentlich...Nonsens ;)
    Intelligente Lebensformen...würden derartiges doch tunlichst vermeiden :D

    Anstatt sich dann mal tiefer Gedanken darüber zu machen, welcher SINN in diesen von Asimov zuerst publizierten, aber auch stets weiter ausformulierten "Gesetzen" liegen sollte...geht ihr darüber in tw. Zockermentalität hinweg :rolleyes:
    Natürlich enthalten diese Stories vieles zum Schmunzeln...aber eben auch viel Nachdenkenswertes^^

    Dabei sind das alles gedankliche Entwicklungsschritte, welche in jeder Form sozialen Zusammenlebens eh absolut notwendig sind...
    ob es sich nun um Regelungen zwischenmenschlichen Zusammenlebens handelt...oder um ein heutiges Computerprogramm...meinetwegen sogar zum Zocken :D...gewisse Regelungen/"Schaltungen" sind eben zwingend notwendig.

    Die übrige Diskussion... wo eigenständiges Bewusstsein anfängt.. bzw. was Leben eigentlich bedeutet...reduziert sich hier auch nur auf ein rein anthropozentrisches Weltbild :D
    welches evtl. andersartige Intelligenzen und Lebensformen erstmal völlig aussen vorläßt...und....ihnen somit auch jegliche (Daseins)Rechte abspricht.

    Inwieweit sich aber ab einem gewissen Komplexitätsgrad "eigenständiges" intelligentes Leben (weiter)entwickelt, wird unter der Prämisse 'Kontrolle' von vornherein verdrängt und unterdrückt.
    Das derartige "Konkurenz" sich irgendwann auch gegen sogenannte "Menschen " richten kann, hat...unter anderen Vorzeichen...nicht nur die Science fiction^^, sondern auch die menschiche Sozialisationsgeschichte schon genügend gezeigt.

    Plötzlich wehrten/wehren sich sogenannte "Untermenschen" aus der "Unterschicht" und schaff(t)en "Probleme", welche, weil ohne gewissenhafte, vorherige Überlegungen & Regelungen, eben nur zu schwer lösbaren Konflikten führen bzw. geschichtlich führten.
  • so weit in die zukunft kann ich leider nicht blicken. kanns mir als expiriment schon vorstellen, die ultimative, unabhängige denkmaschine will ja jeder haben^^
    aber ich denke keinesfalls, dass man so intelligente roboter völlig ohne kontrolle ein serie gehen lassen wird.

    aber wieso leg ich das falschrum dar?
    kennst du einen menschen, der tief in seinem wesen verankert hat, dass er einer bestimmte gruppe gehorchen und sie beschützen musst?
    und ich finde nicht, dass sie wie menschen handeln, da sie jede ihrer taten mit den gesetzen selbstlos in einklang bringen müssen. sie sind eben nach wie vor nichts als komplexe maschinen, deren emotionen allein schonmal sich extrem von den unseren unterscheiden. durch die gesetze werden sie zB nie sowas wie hass entwickeln können, die ähnlichkeit ihrer gehirne hin oder her.

    edith sagt: mein lieber (liebes?) muesli,
    es tut mir leid, dass ich dich enttäusche, oder dass meine bemerkung vorher eventuell in deinen augen abfällig gegenüber asimov war.
    ich möchte an dieser stelle nochmal meine bewunderung gegenüber diesen mann ausdrücken. auch wenn ich mit sicherheit nicht so tief in der matiere drin bin wie du, kann ich mit ruhigem gewissen behaupten, die intentionen und die hintergedanken asimovs zumindest ein wenig verstanden zu haben.
    ich möchte aber auch klarstellen, dass es in diesem thread (zumindest gegen ende ;)) nicht um asimov oder seine gesetze geht, sondern allein um das allgemeine verhältnis mensch - maschine, und inwiefern oder ob überhaupt der mensch diese maschinen kontrollieren darf oder kann.
    und selbst gegen anfang des threads wurde die frage allein unter den gesichtspunkten der klassischen gesetze gestellt. selbstverständlich wäre es interessant gewesen, auch die neueren gesetze in betracht zu ziehen, und über asimovs werdegang in dieser hinsicht zu diskutieren, allerdings muss ich auch zugeben das der thread so schon ein wenig ausgeartet ist ;)...

    auch die anderen von dir erwähnten aspekte (andere intelligenzen) sind, zumindest meiner meinung nach, nicht teil der aktuellen debatte. das nämlich, wenn man zB tiere als beispiel nimmt (da wäre eine bewegung zB, die versucht, mehr rechte für menschenaffen einzuräumen) würde in eine komplett andere, noch viel tiefgehendere debatte übergehen. und das dilemma bereitet mir so schon kopfzerbrechen, erst recht in anbetracht der mir morgen bevorstehenden spanisch-klausur.

    mir schrieb:

    und eben weil menschen ihre macht ausprobieren wollen werden sie doch nie wesen entwerfen die ihnen überlegen sind.

    ich muss zugeben, dass diese aussage nicht sehr überlegt war. der mensch kennt seine grenzen kaum, und er überschreitet sie gerne.
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • Nun ja, einen gewissen tw. starken Altruismus legen Eltern (menschliche wie tierische) ja schon an den Tag...indem sie ihren Nachwuchs bis hin zur Selbstaufgabe verteidigen...und manchmal auch ihren Kindern mehr gehorchen als dem gesunden "Menschenverstand" :D
    DAS ist aber wohl eher ein Instinkt, der dem Selbsterhalt der Spezies dient.
    Bei Maschinen......hmm, wie nennt man da so etwas^^

    Natürlich wäre es auch grundfalsch, andere Spezies - vorausgesetzt auch Maschinen würden diesen Komplexitätsgrad & Status erreichen -
    mit rein menschlichen Masstäben zu messen.....
    genau das macht Asimov's Geschichten ja auch erst so amüsant ;)

    Aber wenn wir uns eine 'perfekte' Machine vorstellen - intelligent, stark UND rein logisch arbeitend - die aber nur dem Wohl der Menschen dienen soll,
    muss sie gewissermassen doch schon menschliche Züge beinhalten bzw. verstehen....
    denn wie sonst sollte sie zum Schutz der Menschen Entscheidungen treffen können,
    wenn sie menschliche Verhaltensweisen nicht wenigstens zum größten Teil "intelligent" nachvollziehen könnte.
    Ein Verstehen menschlicher Verhaltensweisen bedeutet aber auch....
    Wissen & Macht über Menschen durch ihre menschlichen Schwächen zu besitzen ;)...

    Allein dies wäre auch schon wieder ein (Macht)Faktor, welcher "reguliert" werden müsste.....
    weil er sonst sozusagen auch in 'logische' Befehlsverweigerung zum Schutz von Menschen münden müsste.
    Dieses Wissen (oder Macht^^) muss aber zum Schutz der Produzenten (Menschen) einer Kontrolle (als Selbstschutz) unterliegen...
    eben in derartigen Robotikgesetzen, welche trotz der Schwächen von Menschen diese vor der logischen "Willkür rein intelligenter Maschinen" sozusagen beschützt......
    Ein Thema :D welches es ja zuhauf auch in anderer Science Fiktion und deren Verfilmungen gibt...denkt nur z.B. an die Terminatorserien ;)...oder Filme wie 2001..Odyssee im Weltraum (HAL) oder... oder
  • ey leute ich würde sagen mit den 3 gesetzen klauen wir den robotern die beste und wichtigste menschliche fähigkeit und zwar die des freien willens. und dadurch das wir frei wählen können sind wir doch erst so "einzigartig".
    denn ein roboter der z.b. zu seiner persönlichen bereicherung einen menschen verletzen oder negativ darstellen muss kann dieses nicht da er durch die gesetze daran gehindert ist!

    peace!
    IP-Verteilung:z.Z. keine..:(
    Upload's: Kommen bald wieder welche ;)
    Blacklist: Niemand
    Bevorzugt: [bUff€r-Cr€w] ; HiFly
  • Bisi spät aber doch,

    meiner meinung nach wird er nicht springen, aus dem einfachen grund das ein roboter nicht zulassen darf, dass einen menschen oder ihm schaden zugefügt wird außer wenn es dazu dient ein menschenleben zu retten.

    da der sprung nur den robotor schaden würde, niemanden helfen....
    würde er nicht springen.


    interessanter finde ich jedoch auch die frage wie weit die robotor gehen dürfen um die menschheit zu schützen --> i, robot (für die allgemeinheit)


    lg

    NobodY
  • ei, hab mir mit müden äuglein noch mal unsere kleine debatte durchgelesen.


    <altes_topic muss="nicht wieder ausgegraben werden"; 3_bier="true, deswegen doch">

    ...und es ärgert mich, dass ich nicht verstanden worden bin ;)

    auch wenn ich vieles heute anders sehe, so verstehe ich insbesondere mueslis vorwurf zum antropozentrischen weltbild nicht.

    ich bin mit meinem sehr wissenschaftlichen weltbild der letzte, der meschen über eine ebene von chemischen prozessen und elektrischen impulsen stellt, er ist also nichts als ein produkt von actio und reactio.

    genau wie auch ein roboter.

    der einzige unterschied: wir sind durch das fehlen der 3 gesetze frei. roboter sind das nicht, und waren es auch nie. sie befanden sich deshalb nie auf einer ebene mit dem menschen.
    durch die 3 gesetze bleiben sie wesen ohne bewusstsein, ohne emotionen, ohne gefühle.

    und das hat jetzt nichts mit antropozentrismus oder sonst was zu tun - denn diese eigenschaften, die dem roboter dank der gesetze fehlen, bezeichne ich... als menschlichkeit.

    das hier ist eine moralische diskussion, aber wie will man diese führen, wenn man nicht nach menschlichen maßstäben geht? wer definiert moral?
    wir dürfen das bestimmt nicht, sind aber gewissermaßen dazu gezwungen, um überhaupt moralisch zu handeln.
    an sich also ein dilemma, anders gelöst wäre diese diskussion und jegliche existenz menschlichen lebens aber müßig.
    <altes_topic>
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • @ Lukzen
    Ich glaub' ich muss mich nochmal tiefer in die Materie einlesen ;)
    Nicht nur hier,
    sondern auch mal wieder bei Asimov
    (siehe dazu auch Post #27 + 33)

    ATM ist's allerdings echt zu spät :D

    Apropos...
    letztens fragte jemand nach dem Asimov-Up ...NobodYgoes133 ???
    freesoft-board.to/f364/asimov-…scifi-edition-188816.html
    Leider ist die PN schon geschreddert, da damals der Up noch down war

    Ich hab' den Kram aber heute mal neu hoch geschoben ;)
    PN mit Asimov | nick an mich genügt...
    Jeder kann leechen und sich auch einlesen :)
    Der thread bleibt deswegen aber trotzdem vorerst weiter geschlossen ;).

    lg
    muesli