. Lieblingsfolge: Star Trek The Next Generation – “The Measure of a Man” (S02/E09) – Discovery Panel DISCOVER STAR TREK

Lieblingsfolge: Star Trek The Next Generation – “The Measure of a Man” (S02/E09)

Woran misst man einen Menschen? Diese Frage wird gleich in doppelter Weise in unserer Lieblingsfolge „The Measure of a Man“ (zu deutsch: Wem gehört Data?) angegangen. Ist Data Eigentum der Sternenflotte? Und was sagt es über uns, wenn wir künstliche Intelligenz erschaffen und diese verzwecklichen?

Wir freuen uns natürlich sehr über Feedback (und Fixsterne bei Itunes!).

10 comments

  1. In der letzten Folge meintet ihr, dass nicht viel Rückmeldung zur DS9-Folgenbesprechung kam. Vielleicht geht es vielen wie mir, ich habe diese Folge noch nicht gehört, weil ich dazu tatsächlich erstmal wieder „In the Pale Moonlight“ schauen müsste und beruflich und privat gerade in so vielem anderen stecke. Mit dieser neuen Folge war es anders, TNG habe ich geradezu inhaliert und ich erinnere mich sogar noch ans erste Sehen auf dem ZDF.
    Wie ich nun aber nach kurzer Zeit des Hörens feststellte, ist es tatsächlich nötig die Folge zu sehen. -> Hausaufgaben nachgeholt. 😉

    Ihr schlagt den Bogen zu dem Wesen und Bewusstsein von Tieren und bringt u.a. einen Elefanten an. Lustig, denn zu meiner TNG-ZDF-Zeit hörte ich Benjamin Blümchen und hatte damit auch einen Elefanten als Referenz. 😉 Auch wenn Elfie Donnelly nicht sehr viel Kontinuität in die Geschichten schrieb und man sicher auch von ihr geschriebene Folgen zur Gegenargumentation vorbringen kann, gaben mir die frühen Benjamin-Folgen die ich hatte, in denen z.B. die Wünsche aller Tiere im Zoo berücksichtigt werden können, weil die Kommunikation mit den Menschen gesichert ist, ein Selbstverständnis von Rechten und Freiheit aller. Als ich dann „Wem gehört Data?“ sah, aus heutiger Sicht mal wieder ein platter deutscher Titel, war ich tatsächlich entsetzt. Als Kind konnte ich es noch nicht sagen, aber ich war geschockt von diesem Rückschritt, den TNG hier zeigt. Wie ihr auch sagtet, die Folge dient offenbar dem Zweck uns die Protagonisten in der Zwickmühle anhand einer Idee zu zeigen. Man dachte sich ein Thema aus, das so aus der Zeit in der sie gedreht ist stammt, dass man es in meinen Augen nicht schaffte, sie schlüssig in die Zeit, in der sie spielt, einzubetten. Die geschaffene Situation der Aufgabenverteilung in der Gerichtsverhandlung ist mir nicht nachvollziehbar, man muss es wohl hinnehmen, dass die vorhandenen Leute das gewählte Thema jetzt und hier durchexerzieren. Wie gesagt, dass dieses Thema aber überhaupt aufkommt, war damals für mich so unfassbar, dass ich Picards und Rikers Zorn total teilte. Und da man als Kind nun mal i.d.R. nicht der Entscheidungsträger ist, konnte ich mich auch darin einfinden, dass sie gezwungen sind, sich dem auszusetzen, was von oben kommt.

    Für mich war das Verhältnis zwischen Louvois und Picard recht eindeutig. Jetzt habe ich die Eingangsszene, in der sie sich wiedersehen, allerdings VIERMal gesehen und haderte mit mir. Sie hatten einen harten Kampf miteinander vor Gericht und er empfand, dass sie es geradezu genoss, ihm im Kreuzverhör gehabt zu haben. Sie vertritt damals wie heute die Auffassung, dass sie nur ihre Arbeit machte. Wir wissen, dass Picard im Prozess um die Stargazer-Verhandlung unschuldig war, was ihn natürlich angeknackst zurück gelassen haben kann, wie der Prozess verlief. Sie nahm sich danach einige Zeit eine Sternenflottenauszeit, er hält es für eine Reaktion aus verletztem Stolz und sie meinte es sei allgemein ein interner Wunsch gewesen.
    Also vielleicht ist das nur mein Eindruck, aber… womöglich haben beide zu einem gewissen Grad Recht, was das Rücktrittsmotiv betrifft. Zunächst implizierte es für mich, dass sie ggf. eine oder mehrere Grenzen überschritt in der Art wie sie die Anklage vertrat. Man kann seine Aufgaben so oder so erfüllen, der Ton macht die Musik und es scheint durchaus so gewesen zu sein, dass sie sich etwas zu viel erlaubt hatte. Jetzt räume ich jedoch ein, dass es auch so gewesen sein könnte (ach, ist das nicht herrlich, zumal es ja alles nicht gewesen ist und oder gewesen sein wird…) ;-), dass sie nur alle Register ausreizte und Picard sich entsetzt dem ausgesetzt sah, dass man seinen Worten – die er für absolut integer hält – keinen Glauben schenkte und zu tiefst davon erschüttert war. Was in bestimmten Positionen übel ankam, so man ihn, gerade ob des Freispruchs, so angepackt hatte, dass sie sich gezwungen sah zu gehen.

    Wie auch immer, jetzt erleben wir zwei Menschen, die es versucht haben hinter sich zu lassen und sich versuchen freundlich zu begegnen. Die Musik in der Eingangsszene ist für mich da tatsächlich irreführend und unpassend, wenn man die weitere Darstellung des Verhältnisses der beiden sieht. Besonders Picard, aus dessen Perspektive wir ihr Auftauchen erleben, scheint mir hier im Vordergrund keinerlei romantische Empfindungen zu haben. Wenn es mal von seiner Seite so hätte sein können, dann ist der Zug mit seinem Bild von Louvois abgefahren. Wie sie ihm ihr Interesse bekundet, verkennt sie ihn in meinen Augen völlig. Ich glaube, dass sie sich in der Art und Gewichtigkeit ihrer Auseinandersetzung damals, zwar emotional nahe gekommen sind, wie es im Rahmen des Prozesses bei „Angriff“ und „Verteidigung“, dem Wälzen von Charakter und Motiven, im Zeigen von Angriffsfläche/ Verletzlichkeit unweigerlich zu einem Kennenlernen kommt. Aber besonders ihm hat nicht gefallen, was er gesehen hatte.
    Und ich glaube, dass sie den Prozess damals beide intensiv durchlebt haben, so war er ja für beide Karrieren letztlich entscheidend. Meinem Eindruck nach (als subjektive Kirsche noch obendrauf setzend), dass es für Louvois derart Karriere entscheidend war, hat sie mit der Art wie sie die Anklage vertrat, beeinflusst.

    Dass Picard mit dem rechtlichen Problem zu ihr kommt, finde ich daher nachvollziehbar, da sie im Sektor die einzige Juristin der Sternenflotte zu sein scheint. Noch ist ein Gerichtsverfahren, mit ihr als Richterin nicht abzusehen und er benötigt Beratung, da er mit den Fachtexten nicht klar kommt. – Merkwürdig, dass es an Board der Enterprise keinen Juristen gibt, oder? Ist Jurist als Beruf ein heißes Eisen geworden? 😉 Womöglich seit dem die Menschen im 21. Jhd., wie Q im TNG-Piloten vorbringt, alle Anwälte getötet hätten?
    In diesem Kontext noch mal zu ihrem Stand zueinander, er meint, Vertrauen sei ihr unbekannt und glaubt ihr nicht, dass die sich wünschte, dass sie beide „keine Welten“ trennten. Die sind einfach auf zu unterschiedlichen Pfaden unterwegs, das kann sie nicht sehen. Als der Prozess für Picard zufriedenstellend ausging, konnte er ihr den Ölzweig reichen und sie wünschgemäß zum Essen einladen. Und ja, auch für mich geht es hierbei um das Leisten von Gesellschaft und besonders in dieser Szene von einem Ausdruck der Versöhnung oder des Wohlwollens.

    Meinem Eindruck, meiner Erfahrung nach, scheint es kein rechtliches richtig zu geben. Es ist wohl immer alles eine Frage der Argumentation, der gesetzlichen Bezüge und Herleitungen. Wer das am überzeugendsten schafft, bekommt „recht“. Cpt. Louvois bezieht sich in ihrer ersten Entscheidung, dass Data Eigentum der Sternenflotte ist, auf die Cumberland-Gesetzte des 21. Jhd. Da hat sie sich ja eine tolle Zeit herausgesucht, war da nicht auch die postatomare Schreckenszeit? Sehr gut recherchierte Gesetzestexte, wenn sie auf etwas 300 Jahre altes zurückgreifen muss. Für mich krankt der ganze Prozess und alles darum herum, dass keine Juristen da sind, die sich mit Paragraphen beschmeißen können. Sicher hätte man auch einen hübschen Eilantrag einbringen können um die Entscheidungen über Versetzung oder Rechtsstatus von Data in einen Sektor zu verlegen, wo man nicht nur einer Juristin ausgesetzt ist.

    Ich komme zu dem gleichen Schluss wie schon bei der deutschen Erstausstrahlung, ich dachte die Sternenflotte wäre weiter. Ja, ein Sternenflotten „reinigendes Feuer“ wäre wohl passend, aber dafür ist sie vielleicht zu divers und auch Inkompetenz muss vertreten sein. 😉
    Star Trek kann uns keine Lösung bieten, für das generelle moralische Thema im Bereich KI etc., das heute aktueller denn je ist.

    Tut mir leid, dass ich mich nicht kurz fassen konnte.

    LG
    =)

  2. Ich musste mir auch erst mal die Folge anschauen. Bei mir war es bestimmt zwei Jahrzehnte, dass ich sie zuletzt gesehen hatte. Auch wenn auch ich damals Star Trek TNG verschlungen hatte (das alte Kribbel-Gefühl während der Titelmusik hat sich sofort wieder eingestellt!), habe ich die ersten beiden Staffeln heute so gut wie gar nicht mehr parat, die habe ich einfach ganz lange gemieden. Und merke jetzt immer wieder, wenn ich mir doch mal eine Folge aus der Anfangszeit von TNG anschaue, wie sehr ich oft diese Phase von TNG verkenne und wie viele doch schon recht bemerkenswerte Folgen da zu finden sind.

  3. @Felo, das auf jeden Fall! – verkannt und Kribbel-Gefühl, das kenne ich. =D

  4. Ich finde es etwas schade, dass es im Star Trek Fandom gesetzlich festgelegt ist, dass nur Patrick Stewart schauspielen kann. Es gibt so viele Szenen, wo ich mich Frage, was er da macht, wenn er nämlich einfach nur auf seiner Markierung steht, die Arme nach unten hängen lässt und starr nach vorne geguckt. Und das waren meistens Szenen, wo ganz andere emotionale Reaktionen zu erwarten wären.
    Stewart ist schon nicht schlecht, aber bei weitem nicht so gut wie er gemacht wird und für Frakes gilt das umgekehrt auch. Das sind mit zu viele Vorurteile.

  5. Die Folge fand ich emotional richtig toll, vor allem Picards Plädoyer.

    Was mich aber von der Logik her gestört hat:

    Zunächst heißt es, Data kann sich gegen eine Versetzung nicht wehren, da muss man durch, wenn man Sternenflottenoffizier ist. Man kann höchstens den Dienst quittieren.
    Das will Data dann tun, worauf man ihm sagt, dass er nicht den Dienst quittieren kann, da er zum Besitz der Sterneflotte gehört.
    Der Prozess soll nun klären, ob Data Besitz ist.
    Louvois sagt zwar, dass er „the right to choose“ hat, aber eigentlich wäre das Ergebnis gewesen, dass er das Recht hat, den Dienst zu quittieren. Aber das passte wohl nicht in die Gesamthandlung.
    Da wird mit dem Urteil quasi alles ad absurdum geführt, was vorher als Gesetz postuliert wurde.

    Oder habe ich was falsch verstanden?

  6. Gegrüßt!
    Vorab:
    1. Beim Cast Blast noch Ja und Amen sagen, dass 1,5m keine Zeiteinheit für Podcaster sei, um nun zu quengeln, wie lange die einzelnen Szenen in dieser Lieblingsfolge doch sind 😛

    2. Ausgezeichnete Folge wie schon ihre Vorgängerin in eurer Lieblings-Reihe. Möget ihr zahlreichste Lieblinge haben:-) (nein, das war nicht selbstsüchtig gehofft^^)

    Zum Thema:
    Der Bruce Maddox unserer Tage ist US-Senator Robert Hertzberg, der ein Gesetz zur Reglementierung von Bots, ihren Aktivitäten und ihrer „Meinungsfreiheit“ einbrachte. Folgender langer Artikel ist sehr lesenswert, da er auch ideenphilosophische Unterschiede im US-amerikanischen und europäischen Denken aufzeigt (ein Konsequenzen priorisierender utilitaristischer Ansatz, demnach das Handeln und Sagen zählt, versus einem Ansatz, demnach nicht diese Art Folgen, sondern der Kern des Menschen, seine Würde, zentral ist):
    https://www.zeit.de/digital/2018-06/meinungsfreiheit-social-bots-kalifornien-gesetz-kennzeichnung/komplettansicht

    Zitate:

    „Nathalie Nevejans, Jura-Dozentin an der französischen Universität Artois und Expertin für Roboterethik bei der Forschungsorganisation CNRS, wirft den
    EU-Abgeordneten vor, dass deren Vorstellung von Robotern verzerrt sei durch Science-Fiction. Damit ein Roboter als Person gelten könne, „müsste er ein Gewissen, eine Seele oder die Fähigkeit haben, Emotionen zu fühlen. Und das ist aus technischer Sicht gegenwärtig völlig undenkbar. Solche Gesetze laufen Gefahr, Menschen
    und Roboter in einen Topf zu werfen“, sagt Nevejans gegenüber ZEIT ONLINE.
    […]
    Denn ganz gleich, wie täuschend echt Technologie auch erscheinen mag: Sie simuliert lediglich das menschliche Bewusstsein, aber sie besitzt keines – die Simulation einer Explosion ist ja auch keine echte Explosion. Was allen Robotern und KIs fehlt, ist eine innere Erlebnisperspektive. Sie können schlichtweg nicht fühlen, wie es ist, sich zu verlieben, ein schlechtes Gewissen zu haben oder ein Stück Schokolade zu genießen. Diese bewusste Erlebnisperspektive geht weit über mathematische Programmiersprachen hinaus; sie ist einzig und allein lebendigen Organismen vorbehalten.“

    Mit Bezug auf die TOS-Folge Der alte Traum
    de.memory-alpha.wikia.com/wiki/Der_alte_Traum verwies ich anderswo auf den Artikel „Emotionen perfektionieren künstliche Intelligenz“
    https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366?utm_medium=newsletter&utm_source=sdw-nl&utm_campaign=sdw-nl-daily&utm_content=edi

    Demnach hat Nathalie Nevejans faktisch Unrecht und ist schlicht nicht auf neuestem Forschungsstand. Denn demnach seien Emotionen basal dafür, dass sich eine Intelligenz in einer Umwelt ausbilden kann, weshalb man Robotern diese emotionale Basalität einprogrammieren will, um sie so realistisch handlungsfähig zu machen. Versuche wie in Der alte Traum (menschliche Erinnerung auf Androiden zu überspielen und sie anstelle der sterblichen Menschen unsterblich werden zu lassen) wären so oder so zum Scheitern verurteilt, solange man eben gerade nicht die Emotionen mitsimuliert/einprogrammiert, auf denen ja auch menschliche Erinnerungen fußen und deren Kopie ein solcher Androide ohne selbst-verständliche Emotionen gar nicht korrekt (im Sinne des duplizierten Menschen) abrufen könnte. Und das machte mitduplizierte Erinnerungen weitgehend überflüssig und das Endprodukt hätte per se, also ganz grundlegend NICHTS mit dem “Rohling” zu tun. Nur mittels Emotionen wird Erlebtes A) erinnerbar und B) personalisiert einmalig. Ohne Emotionen könnten „abgespeicherte Erinnerungen“ nicht adäquat (eben emotional nachfühlend) abgerufen und ergo dann auch nie menschlich emotional ergänzt werden. Androiden blieben dann soetwas wie „Zombies“ mit nur noch der emotionslosen Erinnerung an ein Leben, das sie nicht (fort)führen.

    ANTHROPOZENTRISCHE PERSPEKTIVE, dernach alles auf die Krone der Schöpfung hinausliefe, die zufälligerweise auf dem Haupt des selbst(v)erklärten Homo SAPIENS ruhe(n soll).

    Passend hierzu die Frage, ob eine Einprogrammierung von Emotionalität (wie sie Data jedoch erst viel später erlangt) schon ausreicht und ob – s. erster Artikel – damit auch Bspw. Bots zu emotionalen Entitäten heranreifen könnten und sich so doch eine Roboterwürde verdienen. Zentral desweiteren (was Data vollumfänglich erfüllt) ist ein Körper, um die künstliche Intelligenz in einen weltlichen Austausch zu bringen, an dem sie wachsen kann.

    https://www.spektrum.de/news/intelligenz-braucht-einen-koerper/1574354

    Nur verkörperte/inkorporierte Intelligenz hat die Möglichkeiten, aus kristalliner Intelligenz in Form bloßer lexikonhaft abrufbarer Wissensansammlung eine fluide Intelligenz zeit-räumlicher Assoziationen zu kreieren.

    Lange Rede kurzer Sinn: alle dumm außer die Psychosomatik, die schon unwesentlich älter als die Roboterforscherkinder und ihre NEUEN Erkenntnisse ist und ja auch dem menschlichen Geist an den Körper rückbindet und in ein reziprokes/rückgekoppeltes Verhältnis zueinander setzt. Der Geist wächst an seinen weltlichen Aufgaben vermittels eines Körpers zur BEGREIFUNG der Welt.
    Und fortgesponnen: je humanoider der Körper, desto eher sind die körperlich vermittelten Emotionen auch menschlich und desto menschenwürdevoller ist der Androide (gender gerechter Anthropoide). In einen Tierkörper gepackt, wird sich die künstliche Intelligenz wohl kaum menschlich entwickeln können.

    Btw: DRINGEND auszutesten, wie sich solcherlei Intelligenzen verhalten, bevor man auf Aliens stößt, die man dann zu unfähig zu verstehen ist. Denn nicht nur latent kritisch angemerkt: Bevor man Blechkameraden mit ein wenig Bits und Bytes Würde zuspricht, wäre es vielleicht von Vorteil, eine solche konstant beim Menschen selber mal praktisch anzuwenden und in erster Erweiterung den Anthropozentrismus nicht bloß einfältig um anthropomorphe Roboter zu erweitern, sondern auf NACHWEISLICH leidensfähige Lebewesen auszuweiten- sprich Würde pathozentrisch anzuerkennen! Da der Mensch im Allgemeinen dazu bereits zu unfähig ist, scheinen mir solche Erörterungen elitäre Spinnereien und ein reines First World Problem.

    Gemperamentvoll geworden Oo grüßt
    AD ASTRA
    Dominic

    Lesetipps:
    1. Data und die Menschenrechte
    https://web.archive.org/web/20160331184834/http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf/at_download/file

    2. Über geteaserte Spektrum-Artikel hinaus das heute erschienene Kompakt
    https://www.spektrum.de/pdf/spektrum-kompakt-robotik/1568786?utm_medium=newsletter&utm_source=sdw-nl&utm_campaign=sdw-nl-mo&utm_content=neuerscheinungen

    3. Nicht psychosomatisch, eher noch umfassender: Wolfgang Welsch: Mensch und Welt – Philosophie in evolutionärer Perspektive
    https://www.perlentaucher.de/buch/wolfgang-welsch/mensch-und-welt.html
    (irgendwo gibt es seine Ringvorlesung auch als Audio – grandios!)

    1. Ein großartiger Kommentar, lieber Dominik. Ich habe deine Anmerkungen mit Genuss gelesen. (und den Artikel mal etwas in Form editiert, weil das System ihn wahrscheinlich wegen der vielen Links zerschossen hatte)

      Ich würde noch eine weitere Perspektive einbringen, und zwar etwas anknüpfend an die Tierethik von Peter Carruthers. Der betont, dass man auch deswegen Tiere gut behandeln sollte, weil sie für uns einen emotionalen Wert haben und es uns als Mitmenschen disqualifiziert, etwas schlecht zu behandeln, was einen vom Menschen verliehenen emotionalen Wert hat. (Er bringt das Beispiel eines Menschen, der einen Dartpfeil auf eine Katze wirft! Das sei eben für ihn nicht nur aus tierethischer Perspektive moralisch falsch, sondern charakterisiere den Menschen auch als „grausame“ Person im Bezug auf seine Mitmschen!)

      Wir sind aber nun auf dem Punkt (dass hat nicht nur „Her“ aufgezeigt), dass emotionale Beziehungen des Menschen zum Roboter spielend möglich sind. Weil wir mit ihnen reden können (Alexa, Siri und Konsorten), weil wir täglich mit ihnen interagieren und sie einen festen Platz in unserem Leben einnehmen (Nimm einer/m 14-jährigen mal ihr/sein Handy ab) und weil sie teilweise auch menschlich aussehen (Sophia, Sexroboter usw.).

      Dementsprechend brauche ich als Grundlage einer Roboterethik evtl. noch nicht mal einen inhärenten Wert und ein postuliertes Bewusstsein oder eine von Nevejans angesprochene Erlebnisperspektive. Ich brauche einfach nur den Common-Sense, der sich im Grunde darüber einig ist, dass man emotionale Bezugspunkte von Menschen respektieren muss. Auf Tiere bezogen: Ich darf Mastschweine töten und verspeisen, aber das gibt mir nicht das Recht, das Hausschwein des 4-jährigen Nachbarsjungen zu drangsalieren. Im Gegenteil: Das wäre grausam. Auf Roboter übertragen: Ich muss meinem Echo Dot keine Freiheitsrechte einräumen, aber sollte dies bei Sophia vielleicht tun!

      LG,
      Andreas

      1. So, jetzt bin ich nun endlich zu dieser Folge gelangt, ich hinke ganz schön hinterher….

        Was mir immer wieder bei solchen Artikeln auffällt, dass Intelligenz und Bewußtsein quasi in einen Topf geworfen werden. Was in den gelinkten Artikeln passiert ist halt auch nur ein weiterer Ansatz die im System angelegten Algorithmen zu trainiern. Der Deep Neural Network (DNN) Ansatz von Google und Co. setzt auf einen unermäßlichen Datensatz mit dem ihre Netze trainiert werden, der in einem der Artikel genannte Myon Ansatz trainiert ebenfalls DNNs, nur halt bezieht dieser seine Daten aus seiner Umwelt. Zum größten Teil ist es halt nur lineare Algebra, und da die Berechnungen auf einem Digitalrechner durchgeführt werden im Endefekt nur Einsen und Nullen, oder genauer Transistoren die Schalten oder nicht. Es geht also nur um eine Desingentscheidung des verwendeten Systems um gestellte Aufgaben möglichst gut zu erfüllen.

        Künstliche Neuronale Netze sind kein Hexenwerk. Es sind schlicht mathematische Operationen die durchgeführt werden.

        Grob kann man sagen, ein Künstliches Neuronales Netz (KNN) ist:

        – ein Funktionsapproximator, d.h. ein KNN kann eine Funktion beliebig genau Approximieren.

        – ein Klassifikator, d.h. ein KNN kann Objekte in Kategorien einordnen.

        Es gibt verschiedene Netzdesigns, aber ganz vereinfacht kann man sagen, ein KNN hat eine Einganssicht eine oder mehrer versteckte Schichten, und eine Ausgangsschicht. Dem Netz werden Zahlenwerte zugeführt (Bilder, Töne etc. sind im Rechner halt nichts anderes als Zahlenwerte), diese werden über gewichtete Verbindungen durch das Netz geführt, am Ausgang erscheint ein oder mehrere Wert(e). Beim Training wird dieser Ist-Wert mit einem Soll-Wert verglichen, ein Fehlerwert berechnet und über einen Algorithmus (z.B. https://de.wikipedia.org/wiki/Backpropagation) werden mittels des berechneten Fehlerwerts die Gewichtungen des Netzes feinjustiert, dadurch „lernt“ das KNN, diese Gewichtungen sind die Wissensbasis mit der das KNN dann arbeitet. Und wozu das Ganze? Das schöne ist, dass KNNs generalisiern können. D.h. sie können auch brauchbare Ergebnisse bei Daten liefern die unabhänig zu den Daten ihre Trainingssatzen sind.

        Und dann gibt es auch noch Entscheidungsbäume etc., aber das Fass mache ich hier nicht auch noch auf.

        Mit Bewußtsein hat das Ganze nichts zu tun, dass sind halt zur Zeit gehypte Begrifflichkeiten die in der Populärliteratur gerne benutzt werden. Es gibt zwar schöne Theorien, wie man ein künstliches Bewußtsein erschaffen könnte, aber bei der technischen Umsetzung hakt es dann doch noch.

        Viele Grüße
        Ronny

  7. Grußfrequenzen offen
    Gegrüßt Paneler und Pannäler,
    nach temporal geloopten interlude (und so netter Erwähnung meines zusammengestückelten Beitrags als „Stand der Wissenschaft“ in News-Folge vom 06.08.) ergänze ich Damaliges noch, weil sich vieles (m.E.) Interessantes ergeben hat:

    Dass man an Emotionalität von/für Robotern forscht, wart erwähnt. Dass man nun deren Befähigung auf Software-Ebene gesteigert hat, um über die Augen des Menschen auf dessen Persönlichkeit zu schließen und diesen Mensch so persönlichkeitsspezifisch ansprechen zu können, sei ergänzt
    http://www.scinexx.de/wissen-aktuell-22988-2018-07-30.html
    (derart ertüchtigte Roboter oder auch nur über die PC-/Laptop-Cam verfügende Bots wären dann quantensprunghaft zu etwas in der Lage (NACH Verfeinerung des Verfahrens und höherer Erkennungsgenauigkeit), was Menschen beim ersten Blick ins Gesicht/in die Augen so wohl kaum zuverlässig eruieren können und ergo auch eher selten charaktergenaue Ansprachen zu setzen vermögen.)

    Wortklauberei: Androide =MÄNNER-förmig; ein „weiblicher Androide“ wäre genau gesagt eine „Gynoide“ (und wer hätte diesen Begriff je proaktiv verwendet?); daher appelliere ich für Anthropoide, da altgriech. anthropos =Mensch (meines Wissens ohne geschlechtliche Konnotationen) meint; dass und wie ein Anthropoide dann optisch ausgeformt ist, an welchen der über 50 Fakebug Geschlechter erinnert wird, ist dann künstlerische Freiheit… 

    Ebenfalls: Roboter von slawisch „Robo“ =Frondienstler/zu Frondiensten verpflichteter Untergebener; österreichisch „Robath“ =Fronarbeit (vom slowakischen „Robota“);
    ursprünglich ein Roboter ein mittelalterlicher Bauer in (sklavischer) Abhängigkeit von einem Grundherren;
    moderne Roboter also als „maschinelle Sklaven“ in Abhängigkeit von grundherrlichen Menschen;
    Die Szene mit Guinan, die zu Picard meint, eine Verwendung Datas im Sinne Maddox würde ihn und seine Duplikanten zu Sklaven machen, ist – noch so kurz und vermeintlich randständig – m.E. SEHR WICHTIG! Denn es wird nicht nur verhandelt, ob Data ein Mensch resp. als ein solcher anzuerkennen ist (als gäbe es nur Menschen in der Föderation und könnte Data nicht jede x-beliebige andere und i.a.R. eh arg humanoide Spezies sein), sondern in negativo, ob er evtl. eben doch nur ein Roboter (maschineller Sklave) ist, der nach grundherrlich-menschlichem Belieben zu behandeln wäre (Maddox‘ Position). Exemplifiziert an Data geht es also Ende des 24. Jahrhunderts IMMER NOCH O_o um den status quo menschengeschaffener Entitäten nur als Roboter, wenigstens als Anthropoiden oder als eigenständige LEBE-Wesen.
    OHNEHIN (wie aber – lost in time – von irgendwem auf einem dieser Panele schon gesagt): In einer VIELVÖLKER-Föderation ist es mehrfach witzlos, A) über Data NUR als Menschen zu diskutieren und B) bei der lebensweltlichen Vielfalt der Föderationista allzu Bestimmtes bei Data als fundamental für Anerkennung zu verlangen. Dass er bspw. emotional „eingeschränkt“ ist, mag sein, aber das sei doch gerade DIE ultimative Befähigung der erst dadurch streng logischen Vulkanier, deren anerkannte Mitgliedschaft außer Zweifel steht. Und wäre relevant, wie man geschaffen wird, käme das Zeugungsritual der Vulkanier auch schnell unter Verdacht, nicht- bzw. gleich unmenschlich zu sein. Daher so In-die-Welt-Gekommene nicht als Lebewesen anzuerkennen? Und wenn all die (aus Budgetmangel) Humanoiden des v.a. Alphaquadranten anerkannt werden und ein Kirk nach (legendärem) „Ringen“
    de.memory-alpha.wikia.com/wiki/Ganz_neue_Dimensionen
    auch einem Gorn freimütig Gleichwertigkeit zugesteht bei allen allein optischen (biologischen usw. usf.) Unterschieen, wird es so oder so immer fraglicher, woran es bei Data jetzt mangeln/scheitern soll.

    Turing Test
    https://de.wikipedia.org/wiki/Turing-Test
    Wissenschaftler Turing hatte realweltlich 1950 seinennamigen Test entwickelt, um KÜNSTLICHE von MENSCHLICHER Intelligenz zu unterscheiden, indem Menschen mittels Fragen ermessen, ob das antwortende Gegenüber menschlich oder künstlich intelligent ist. Großmeister Dick entwickelte den Test in „Träumen Androiden?“ (kurzgeschichtliche Vorlage von Blade Runner) weiter …
    Zu scheiden sind desweiteren schwache K.I. von starker K.I., wobei erstere nicht viel mehr zustandebringt als Eliza (und Geschwister)
    http://www.med-ai.com/models/eliza.html.de
    Bei denen muss man sich um „Meinungsfreiheit“ (s. Anfang meines ersten Postings – damals^^) keinerlei Sorgen machen ->inexistent
    Letztere wäre lernfähig und wüchse somit über sich resp. ihre Grundprogrammierung dank Input hinaus
    DEFIZITÄR ist m.E. daher die Folge, dass sie diesen – science-fictional fortzuspinnenden – Test in keinerweise an Data anwendet (und wenn nur als erster Schritt zur weiteren Diskussion), so wichtig und denkanregend der Test in der Realwelt war und ist und für den evtl. unbedarften Zuschauer ganz gewiss Ende der 80er Jahre gewesen wäre. Diese Referenz, gerade weil ein wissenschaftliches und SF fortentwickeltes Konzept, hätte inhaltliche Tiefe gegeben. ICH (posthum besonders schlau^^) hätte daher hieraus einen Zweiteiler gemacht mit Cliffhanger am Ende von Folge1 da, wo Riker schauspielerisch gekonnt Data „quod erat demonstrandum“ als Roboter „entlarvt“ hat – Fortsetzung folgt:-)

    Apropos Intelligenz, der sich der selbst(v)erklärte Homo SAPIENS ja gerne selbstversichert, die aber selbst bei ihm so klar bestimmbar nicht ist (allein ob und wie sehr genetisch vererbt, dann auch schicksalhaft und/oder erlernt und somit des Herrn Dohms Oberste Direktive)
    https://www.zeit.de/digital/2018-07/kuenstliche-intelligenz-maschinen-bewusstsein-robotik-denken/komplettansicht
    Vieles mehr der Artikel anspricht, zugespitzt das Entscheidende: solange die KI der MI nachgebaut wird, solange bleibt sie auch M wie mäßig intelligent und prinzipiell so dumm wie ihre Herren.
    @Data: Nach Misselhorn verfügt er über A) Selbstursprünglichkeit (kleinere Schwester der Autonomie), B) Grundhandeln sowohl nach B1) Meinungen (wie die Welt ist) als auch B2) Pro-Einstellungen (wie die Welt sein soll ->Wünsche) =Data ausreichend menschenartig IN DER WELT (bereits OHNE Emotionen!)

    Im Zuge anstehender Hausarbeit kam mir noch eine soziologische Erklärung in den Sinn, worüber man Data problemlos als Gesellschaftsmitglied anerkennen könnte, ganz egal, wie exakt sein Bewusstsein beschaffen ist, das sowieso immer nur von Außen für Andere als Blackbox erscheint und am Ende ohnedies nur verhaltenspsychologische Vermutungen über das bewusstseiende Innenleben ableiten kann. ABER das wäre ein langes nächstes Posting…

    READ LONG AND PROSPER

    Lesetipp:
    1. HANSEMANN, HENRIK: Die Philosophie bei Star Trek ->Sternzeit 67405 Der Androide Data – menschlich oder Vermenschlichung?
    2. Website Maschinenethik
    http://www.maschinenethik.net
    3. Catrin Misselhorn: Grundfragen der Maschinenethik (Reclam) (s. ZEIT-Artikel)
    Grußfrequenzen geschlossen

  8. Hallo, ihr zwei, ich habe heute mal wieder diese Podcast-Folge von euch gehört. Ich bin sehr froh, dass ihr über die Jahre eure Meinung zu den schauspielerischen Leistungen, v. a. von Jonathan Frakes, revidiert habt. Die Hintergründe zu den Liebschaften von Picard zu Jenice (S1 F24 “We’ll always have Paris”) und auch Phillipa werden sehr schön in seine Autobiografie beschrieben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.