Die drei Robotergesetze

  • Diskussion

  • sammy254
  • 3194 Aufrufe 53 Antworten

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Die drei Robotergesetze

    Hi Leute,
    hatte mit meinem Vater grad eine Diskussion, wie ein Roboter nach den Robotergesetzen in folgender Situation handeln müsste:

    Ein Mensch befehlt einem Roboter von der Brücke zu springen. Dabei würde keinem Menschen irgendwas zu Schaden kommen, nur der Roboter wäre halt im Ar***.

    Hier noch mal kurz die Gesetze:
    1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
    2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel Eins kollidieren.
    3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert.

    Ich würde sagen, der Roboter muss von der Brücke springen, da er sich nach §3 nicht schützen kann, da er sonst §2 missachten würde.

    Mein Vater behauptet aber leider das Gegenteil, da (angeblich) alle drei Gesetze parallel gelten und der Roboter so gezwungen ist, sich selber zu schützen.

    Nun würde ich gerne Wissen, was ihr denkt, wie der Roboter handeln müsste.

    :danke: für die Antworten


    Sammy254
    Bevorzugte:
    hantz-crew, sonderzeichen1
    Blackliste:
    bullet12, kiwi0
  • Wie du gesagt hast: Der Roboter müsste springen, da das 2. Gesetz eine höhere Priorität als das 3. hat. Außerdem ist es ja auch im 3. Gesetz explizit geregelt: "solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert" und das ist definitiv der Fall!

    Palad
  • In diesem Fall
    Jein....:D
    nach den Robitikregeln (übrigens von Isaac Asimov aufgestehlt)
    sind die 3 Grundregeln der Robotik 'eigentlich' gleichwertig !

    Da der Befehl zu springen sinnlos ist - ich gehe mal davon aus, das der Roboter mit dem Sprung keinen Menschen beschützt...sonst müsste er unbedingt springen -
    scheidet Regel 1 aus.

    Regel 2 trifft hier zwar zu...ein gegebener Befehl halt
    dieser kollidiert aber eigentlich mit Regel 3....
    und da ja der Sprung ohne jeglichen Sinn ist...
    und zur Selbstzerstörung führen würde......

    Asimov selbst hat ähnliche Beispiele in seinen Romanen verwendet, wo mutwillige Menschen durch sinnlose Befehle Roboter zur Selbstzerstörung brachten...;) und insofern
    ....die dritte Regel aufgestellt ;)

    Ich schätze...hier springt er nicht :D....-> Selbstschutz
    aber in anderen Fällen...
    könnte durchaus auch seine CPU dabei durchbrennen :D
  • naja, die geschichten von asimov (alle gelesen, arschgeil) sind da schon ein wenig komplizierter.
    in diesem falls ist das meiner meinung nach recht einfach. dein vater hat insofern unrecht, weil er behauptet, die 3 regeln gelten parallel. dabei steht doch recht fett dahinter (bei regel3):
    "solange dieser Schutz nicht mit Regel Eins oder Zwei kollidiert"

    und weil der mensch einen befehl gibt (regel 2) kollidiert regel 3 damit und wird wirkungslos.

    eigentlich ganz einfach...

    LukZen
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • Er würde mit Sicherheit nicht springen da es ja keinen sinn hat :P.... aus jucks und tollerei könnte er es zwar machen das würde aber gegen regel 3 verstossen (wenn er nicht springt verstösst er gegen regel 2 aber ich denke er sollte prioritäten setzen :P).

    greetz
  • Die Regeln sind mit Prioritäten angegeben.
    Also wird er springen.

    Wenn die Regeln ohne Priorität wären, würde er festfahren, da keine Entscheidungsfindung für Wiedersprüche gegeben ist.

    Ganz einfach.

    MFg, Melkor
  • @Starfish_34
    das ist nich aus I, Robot geklaut, I, Robot hat es geklaut.
    du kannst ja mal im Internet nach Isaac Asimov googeln, vielleicht weißt du dann mehr

    @Mr, Anderson
    die regeln sind kein schwachsinn!
    nach diesen regeln werde schon heute roboter gebaut
    Bevorzugte:
    hantz-crew, sonderzeichen1
    Blackliste:
    bullet12, kiwi0
  • die regeln sind kein schwachsinn!
    nach diesen regeln werde schon heute roboter gebaut

    Nur, wenn nicht sogar gerade deshalb, weil sie heute schon danach gebaut werden, können sie trotzdem schwachsinnig sein. ;)

    Meines Erachtens nach drücken diese Gesetze die typische Perversität des Menschen aus, die gegenüber allen und jedem entwickelt wird, nämlich es zu unterdrücken, man beachte mal die Wortwahl: darf, muss den Befehlen gehorchen, muss...


    Das ganze begründen wir wohl damit, das wir selbst denken ein Bewusstsein mit einem freiem Willen zu haben und aufgrund unserer Gefühle nicht unterdrückt werden dürfen und uns dieses gleichzeitig erlaubt über andere zu herschen.

    Allerdings sollten wir bedenken, das wir selbst ebenfalls nur aus billigen Zellen und einem Haufen "Elektronik" bestehen, in dem Sinne unterscheidet uns also nicht allzu viel von einem Computer.

    Ich will damit sagen, das wir uns nicht von Computern unterscheiden, in uns steht nicht göttliches, auch wenn viele das meinen um ihren Ego zu stärken, wir bestehen auch nur aus einer Reihe chemischer und physikalischer Prozesse.

    Werden wir erstmal erkannt haben wie das geht, werden wir in der Lage sein, und dies dann auch machen, der Mensch muss nun mal alles ausprobieren, egal wie sehr es ihm schadet, siehe Atombombe, Roboter mit künstlicher Intelligenz und einem sogennantem Bewusstsein und einem Willen, sowie Emotionen, die sich aus komplexen Gedanken und vielen Sensoren ergeben, zu bauen.
    Diese fallen dann ebenfalls unter diese Gesetze, obwohl sie sich dann nicht von uns unterscheiden.

    mfg
    neo
  • Es ist zwar ganz nett, über Sinne zu diskutieren, doch glaube ich nicht, dass ein Roboter (heute und auch nicht in 100 Jahren) in der Lage sein wird zwischen sinnvollen und sinnfreien Befehlen zu unterscheiden, noch unterscheiden zu dürfen.
    Zur Fähigkeit der Sinnunterscheidung::: Es sind derart Komplexe Denkprozesse notwendig um Sinne in etwas zu definieren. Auch sind sie von Mensch zu Mensch verschieden. Desweiteren sind Sinne an sich schon menschlich geprägt; wie soll ein Roboter diese menschlichen Sinne Nachahmen? Daraus begründet sich dann auch der Verzicht auf Sinnerörterungen durch Roboter.

    @topic... Er muss springen, insofern er an die Gesetze wie oben beschrieben gebunden ist. Allerdings würde ein Roboter sicherlich nicht auf jeden Menschen hören. Nur auf sein Herrchen..gg . Und der sollte durchaus jederzeit das recht haben seine Maschine auch wieder zu verschrotten. Wenn er dabei gegen Umweltvorschriften verstößt ist das nicht das Problem der Maschine.
  • Ja der Rpboter würde springen, da wie Falves schon gesagt hat dies Regel 2 befehlt und diese ist wichtiger als Regel nummer 3.

    Diese Regel wurde wahrshceinlich deswegen erstellt um die Robots beseitigen zu können falls sie nerven ^^.
    Klickt die Werbung, das Board ist es wert!

    Blacklist:
    schmitti
  • was ein zufall, ich lese grade die bücher vom isaac^^

    ich würde sagen er springt!(begründung stehen ja alle schon oben^^)

    aber ich habe mir auch grade noch gedanken gemacht, dass wenn man es peinlichst genau nimmt, dass der robot dann, wenn er sich selbner sinnlos zerstört, nich mehr auf den menschen aufpassen, ihn also durch untätigkeit(der er sich ja zerstört hat, is er untätig) zu schaden kommen lässt und deshalb nicht springt!

    das könnte glatt ne romanvorlage sein :D , dass der robot selber nachdenkt^^

    btw: susan calvin is göttlich, ich glaube dir andi würde sie gefallen ;)

    saguljai
  • @mr anderson,
    klar unterscheiden sich roboter nur in details und in der komplexität von uns menschen, aber heißt das, dass wir sie uns nicht unterwerfen sollten?
    ich halte das nicht für "psychisch pervers". robotern keine regeln und gesetze vorzulegen, wäre wie sämtliche sicherheitsvorkehrungen aus einem auto auszubauen.
    ok, nehmen wir mal an wir haben roboter die sich in ihrer denkweise nicht vom menschen unterscheiden, allerdings ohne diese regeln. er würde dann genauso lügen und töten wie ein mensch, und dass bei einem geschöpf das wir selbst erschaffen haben.
    den vergleich mit der atombombe versteh ich nicht ganz...hätten roboter keine gesetze, dann kämen sie der atombombe gleich. stattdessen aber versucht man sie von vornherein zu kontrollieren, um eben schaden zu verhindern. daran kann ich nichts verwerfliches finden.

    was der mensch erschafft, das will und darf er auch kontrollieren, und das ist ethisch vollkommen korrekt. man kann sich ja auch kein spielzeugauto basteln, nur um dann die fernbedienung wegzuwerfen und es als anderes wesen zu respektieren :D ...
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • wir haben roboter die sich in ihrer denkweise nicht vom menschen unterscheiden, allerdings ohne diese regeln. er würde dann genauso lügen und töten wie ein mensch, und dass bei einem geschöpf das wir selbst erschaffen haben.

    Du kannst nicht anderen Regeln aufdrängen, die du nicht mal selbst beachtest. Wie kannst du es dir anmaßen anderen "Wesen" Regeln zu geben, was sie dürfen und was sie nicht dürfen, über Recht und Unrecht zu entscheiden, wenn die Menschheit nicht mal selber die Regeln beachtet?

    was der mensch erschafft, das will und darf er auch kontrollieren, und das ist ethisch vollkommen korrekt.

    So, ist es das? Und mit welcher Begründung?

    man kann sich ja auch kein spielzeugauto basteln, nur um dann die fernbedienung wegzuwerfen und es als anderes wesen zu respektieren ...

    Das Beispiel passt nicht, da dies nur ein Ablauf ist, laut unserer Einteilung ist ein Spielezeugauto kein Lebewesen, hinzu kommt, das die Handlung des Wegwerfens schwachsinnig wäre.

    mfg
    neo
  • Es ist doch absoluter Schwachsinn ,wenn man einem Roboter keine Regeln gibt nach denen er sich richten muss. Man kann doch nicht zulassen das eigene Produkt einem schadet.
    Und übrigens der Mensch hat auch etwas das ihn mehr oder weniger kontrolliert und die entscheidung fällt was er tut. Nennt sich Gewissen. Werte die einem von der Gesellschaft, den Eltern, Freunden vermittelt werden. Und ein Wesen zu erschaffen ohne Werte, Gewissen oder regel ist pervers.
    Und da man einem Roboter schlecht ein Gewissen programmieren kann, sind Regeln der einzige Weg.
    "Gewalt im Kino? Es ist interessanter, einem Auto beim Explodieren zuzuschauen als beim Parken."
  • Und ein Wesen zu erschaffen ohne Werte, Gewissen oder regel ist pervers.

    Warum sollte das pervers sein?
    Zudem ist das Gewissen, wie du schon angedeutet hast auch nur eine Sammlung von Verhaltensweißen, die mir ausführen, um gesellschaftlich akzeptiert zu werden, unabhängig davon ob wir damit einverstanden sind oder nichnt.

    Ich wiederhole mich nochmals, wie könnt ihr euch anmaßen, anderen Wesen Regeln aufzuerlegen wenn ihr diese nicht mal selbst befolgt?
    Wie könnt ihr euch anmaßen andere zu unterdrücken?

    mfg
    neo
  • Erstens:

    Er müsste springen, weil die Gesetze nicht parallel gelten sondern hierarchisch aufgebaut sind. Das sieht man schon an den Gesetzen 1 und 2. Auch hier ist 1 stärker als 2. Kannst also deinem Vater sagen, dass er im Unrecht ist. Anders würde es auch keinen Sinn machen. Es kann doch nicht sein, dass ein Roboter die Befehle des Menschen bewertet und daraus seine eigene Entscheidung trifft.

    Damit sind wir auch schon bei der zweiten Diskussion.

    Ein Roboter im Sinne der Robotergesetze ist ein Roboter und kann nicht einem Menschen gleichgestellt werden. Und daher hat er dem Menschen zu gehorchen. Anderenfalls wäre er dem Menschen gleichgestellt und müsste auch als solcher angesehen und behandelt werden.


    Wie könnt ihr euch anmaßen andere zu unterdrücken?


    Trittst du nicht auch das Gaspedal deines Autos, wenn du schneller fahren willst. Trittst du nicht einfach auf das Bremspedal, wenn du anhalten willst. Machst du nicht einfach deinen Computer aus, wenn du genug gesurft oder gespielt hast? Wieso maßt du dir an, dieser Teile einfach zu unterdrücken. ;)
  • du sagst ein spielzeugauto ist kein lebewesen? ist den ein roboter eins?

    ist es mit der allgemeinen technophilie schon so weit, dass wir komplexe maschinen mit uns menschen gleichstellen?

    die handlung des wegwerfens ist schwachsinnig? natürlich ist sie das.
    die fernbedienung wegzuwerfen bedeutet kontrollverlust, und in dem moment wo du einem roboter diese drei regeln wegnimmst verlierst du die kontrolle über ihn.

    aber du hast recht, man kann anderen nicht regeln aufdrängen, die man selber nicht achtet. allerding unterscheide bitte zwischen lebewesen und komplexen maschinen.
    ok, wenn der fortschritt soweit ist, dass wir roboter haben, die in ihrer komplexität dem menschen ähnlich sind, dann kann man aus ethischen gründen drüber nachdenken, ihnen die gesetze wegzunehmen. stelle dir jetzt aber bitte die folgen vor. wie in zig scifi romanen, werden die roboter schnell ihre physische (oder sogar psychische) überlegenheit begreifen und zack! - wir haben ein besseres "lebewesen" als der mensch. den rest der entwicklung kannst du dir ja vorstellen.

    nochmal, roboter sollten als reine arbeitsmaschinen angesehen werden, dessen "gehirn" so weit ausgebaut wurde, dass er komplexe gedankengänge und lernprozesse hat, um auch komplexere aufgabenbereiche durchzuführen.
    warum sollte er denn nicht maschine bleiben? wieso müssen wir ihn denn zwanghaft als mensch ansehen?
    [size=1]duude, wait...what?
    <-[COLOR="DarkRed"]Overseer - Wreckage // World of Goo // The Raconteurs - Consolers of the Lonely[/color]->[/size]
    [font="Fixedsys"]Newbies * Rules * How to Search * Users help Users * Freesoft-Board IRC
    [/font]
  • Ein Roboter im Sinne der Robotergesetze ist ein Roboter und kann nicht einem Menschen gleichgestellt werden.

    Du kannst nicht sagen das er ein Roboter ist, weil er den Robotergesetzen untersteht, die du damit begründest das er ein Roboter ist.
    Anderenfalls wäre er dem Menschen gleichgestellt und müsste auch als solcher angesehen und behandelt werden.

    Genau darauf will ich hinaus.

    Trittst du nicht auch das Gaspedal deines Autos, wenn du schneller fahren willst. Trittst du nicht einfach auf das Bremspedal, wenn du anhalten willst. Machst du nicht einfach deinen Computer aus, wenn du genug gesurft oder gespielt hast?

    du sagst ein spielzeugauto ist kein lebewesen? ist den ein roboter eins?

    Es geht darum, ob es ein einfacher Ablauf chemischer und physikalischer Prozesse ist, oder ob es ein Ablauf chemischer und physikalischer Prozesse ist, bei dem eine Scheinwelt, ein Bewusstsein, eine Welt sozusagen und damit eine Identifikation mit dem Ich, ein Individuum erstellt wird.

    wie in zig scifi romanen, werden die roboter schnell ihre physische (oder sogar psychische) überlegenheit begreifen und zack! - wir haben ein besseres "lebewesen" als der mensch. den rest der entwicklung kannst du dir ja vorstellen.

    Abgesehen davon, das ich nicht allzuviel unbedingt auf Sci-Fi Romane geben würde um die Entwicklung von Robotern vorherzusagen, in den Büchern gehts nämlich darum Spannung zu erzeugen, und bei einem friedlichem Zusammenleben klappt das nicht so gut, würdest du dir damit die Begründung nehmen, warum wir im Moment andere Lebensarten unterdrücken.
    Wir zerstören im Moment die Welt und unterdrücken alle anderen Lebewesen wie Tiere und Pflanzen mit der Begründung das wir die stärkste, größte und beste Rasse sind und das dürfen.
    Sind wir hingegen mal nicht mehr die größte Rasse, weil es die Roboter gibt, die genauso sind wie wir, nur der atomare Aufbau etwas anders ist, gelten plötzlich andere Gesetze, das die Schwachen nicht unterdrückt werden dürfen und das stellst sogar noch als moralisch richtig hin?
    Wenn du das als moralisch richtig ansiehst, würde es bedeuten, das du diese Lebensweiße von deinem jetzigen Leben nicht moralisch vertreten kannst, was bei dir aber ziemlich sicher nicht der Fall ist wie ich dich kenne.

    Mich würden auch noch die moralischen Herleitungen interessieren mit denen du deine Aussagen begründest. ;)

    mfg
    neo
  • LukZen schrieb:

    warum sollte er denn nicht maschine bleiben? wieso müssen wir ihn denn zwanghaft als mensch ansehen?


    In Zukunft (50 - 100 Jahre) werden uns die Roboter wahrscheinlich sowieso geistig und körperlich überlegen sein, deshalb müssen wir sie nicht als Menschen ansehen, das würden sie vermutlich als Beleidigung ansehen.

    Warum ich das glaube?

    Sieh dir mal die Fortschritte in der Robotik, Informatik, aber auch Physik und Biologie, spezielle Gentechnik, an. Wie lange wird es da dauern, bis man entweder einen künstlichen Menschen bzw. eine Computersimulation davon erschaffen kann? Und bevor man das kann, wird man sicherlich schon eine künstliche Intelligenz erschaffen haben. Zuerst nur stationäre, die auf Supercomputern laufen, aber später auch kleine, mobile Einheiten.
    Sobald diese eine gewissen Grad an Intelligenz überschreiteten, sollten sie sich theoretisch selbst verbessern können und so immer intelligenter werden.

    Aber noch mal zum künstlichen Menschen: Wenn es soweit ist, ist es nur mehr ein kleiner Schritt zu einer Verbesserung des Menschen.
    Nicht das ich gegen so etwas wäre, solange auch die "alten" Menschen verbessert werden würden. (Gehirn, Muskeln, Lebensdauer, Sinne, . . .)

    Zum eigentlichen Thema:
    Diese Gesetze gibt es vor allem deshalb, weil die Menschen Angst davor haben, dass die Roboter die Erde übernehmen könnten, sobald sie einmal intelligent sind.
    Und diese Gesetze werden wohl nicht ohne Grund nummeriert sein, meiner Meinung nach steht Gesetz 1 über Gesetz 2 und das über Gesetz 3.

    mfg, bloodycross
  • bloodycross schrieb:

    In Zukunft (50 - 100 Jahre) werden uns die Roboter wahrscheinlich sowieso geistig und körperlich überlegen sein, deshalb müssen wir sie nicht als Menschen ansehen, das würden sie vermutlich als Beleidigung ansehen.

    Warum ich das glaube?

    Sieh dir mal die Fortschritte in der Robotik, Informatik, aber auch Physik und Biologie, spezielle Gentechnik, an. Wie lange wird es da dauern, bis man entweder einen künstlichen Menschen bzw. eine Computersimulation davon erschaffen kann? Und bevor man das kann, wird man sicherlich schon eine künstliche Intelligenz erschaffen haben. Zuerst nur stationäre, die auf Supercomputern laufen, aber später auch kleine, mobile Einheiten.
    Sobald diese eine gewissen Grad an Intelligenz überschreiteten, sollten sie sich theoretisch selbst verbessern können und so immer intelligenter werden.


    Manche Menschen scheinen schon heute von den selbst erschaffenen Robotern (Fernsehen und Computer) regiert zu werden. Da hat wohl jemand zuviel Terminator und Matrix geschaut.
    Die Fortschritte sind längst nicht so groß, wie in manchen Filmen dargestellt.
    Die Natur ist unseren Robotern in allen Punkten weit überlegen. Wenn ich mir jedes Jahr die Roboterweltmeisterschaften im Fussball anschaue, sehe ich da keinerlei große Fortschritte die mir Angst machen könnten, dass uns die Roboter irgendwann Probleme machen.

    Aber darum gehts in diesem Threat auch nicht primär.