Willkommen, Gast
Benutzername: Passwort: Angemeldet bleiben:

THEMA: Cyborg

Cyborg 01 Sep 2018 14:44 #41420

Shahrad schrieb: Das bedeutet vom Anfang an ist klar dass KI für uns, in dieser Zeit, ein schrecklich falscher Weg ist und sollte gestoppt werden


Selbst wenn wir (z.B. Deutschland oder die EU) zu einem solchen Schluss kommen würden, wäre es in unserer hetrogenen Welt unmöglich, die KI-Entwicklung zu stoppen. USA und China würden das nicht mitmachen. Und selbst wenn, dann würden es Staaten wie Nordkorea tun (dies würde die Entwicklung nur etwas aufschieben).

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 01 Sep 2018 21:51 #41439

Shahrad schrieb: Das bedeutet vom Anfang an ist klar dass KI für uns, in dieser Zeit, ein schrecklich falscher Weg ist und sollte gestoppt werden

Ich möchte das mit einem Beispiel technologischer Entwicklung aus der Vergangenheit beantworten:
Die Leute, die am Manhatten-Projekt mitgearbeitet haben, hatten genau deine Gedankengänge im Kopf, nur ging es damals nicht um KI sondern um die Atombombe.
Ihnen war klar, dass Passivität kein Ausweg aus der unerwünschten Zukunft sein kann. Es hätte nicht geholfen, sondern geschadet, nicht an dem Projekt mitzuarbeiten, denn das Projekt selbst wäre dadurch nicht gestoppt worden.
Natürlich würde es eine schreckliche Waffe werden, die eigentlich niemals in die Hände von Menschen mit dem damaligen und auch mit dem heutigen Entwicklungsstand fallen sollte. (Es ist fraglich, ob Menschen jemals in der Lage sein werden verantwortungsvoll mit Macht umzugehen.) Die Entwicklung war aber absehbar und nicht aufzuhalten. Was blieb war Schadensbegrenzung und die Hoffnung die Entwicklung in die bestmögliche Richtung zu lenken.

Wir haben heute (auch politisch) die Möglichkeit der internationalen Zusammenarbeit und der Offenlegung der Arbeit an einer unausweichlichen Entwicklung. Open-Source bietet zumindest die Möglichkeit, die Technologie jedem Land zugänglich zu machen und wenigstens eine theoretische Chancengleichheit herzustellen. So muss niemand befürchten, am nächsten Morgen einem Feind mit einer übermächtigen Waffe gegeüberzustehen oder auch das Licht von der ausländischen KI ausgeknipst zu bekommen. Die KI bedarf des Internet und damit der ganzen Welt, um zu dem zu werden was wir (vielleicht) fürchten müssen und sie bedarf eines Ziels, dem unsere Existenz (so wie wir sie kennen) im Weg steht. Mit geringem Entwicklungsvorsprung kann kein Land der Welt diese Projekt vollenden, ohne sich selbst in höchste Gefahr zu bringen oder bemerkt zu werden. Anders als eine Bombe, kann man eine KI nicht mal eben heimlich und isoliert zusammenbasteln. Gleich gar nicht wenn der ganzen Welt bekannt ist, dass eigentlich jeder daran arbeitet und wie weit die Arbeit daran mindestens fortgeschritten ist.
Die Gefahr, dass die Technologie "in falsche Hände" gerät wäre auf diese Weise zumindest gebannt.
Was noch fehlt sind logische und für die KI bindende Richtlinien zur Verwendung einer solchen Technologie. Hier sehe ich die Menschheit scheitern, denn wenn es um Eindeutigkeit geht, sind wir ziemlich hilflos und müssen mehrbändige Bücher schreiben, um eine unmissverständliche Aussage zu treffen. Wir werden wohl immer unbewusst Spielräume in unseren Anweisungen lassen und wenn wir versuchen, das zu vermeiden, verstricken wir uns nur immer mehr in Widersprüche und öffnen neue Spielräume.
Wer mir nicht glaubt, lese einfach einen beliebigen Thread in diesem oder irgendeinem Forum. Und wer jetzti sagt, hier seien ja auch Laien am Schreiben, der schaue in ein beliebiges Gesetzbuch und denke kurz über das nach, was nicht vom Text abgedeckt oder interpretierbar ist.

Eine KI ist an ihre Aufgabe gebunden. Alles was nicht durch die Aufgabe vorgegeben aber der Lösung derselben dienlich ist, liegt in ihrem Ermessen. Wie vor dem Geist der Lampe werden wir vor ihr stehen und uns genau überlegen müssen, was wir uns wünschen und wie wir den Wunsch formulieren. Nicht dass die KI uns austricksen wollte, aber sie wird den Weg wählen, der mit dem geringsten Aufwand zur Lösung der Aufgabe führt. Ihr stehen alle Wege zur Verfügung, die wir uns denken könnten und vielleicht einige, die wir uns nicht vorstellen können. Darunter sind auch Wege, die wir aus unserem menschlichen Denken heraus von vornherein ausschließen und deshalb gar nicht erst in Betracht ziehen würden.
"Bring mir eine Banane!" schließt nicht aus, die Kontrolle über ein selbstfahrendes Auto zu übernehmen und es ins Obstregal des nächsten Supermakrts zu steuern. Von Bezahlen war auch nicht die Rede oder davon dass man niemanden bedrohen und zwingen darf, mit einer Banane ins Auto zu steigen. Dafür braucht es grundlegende und absolut simple, eindeutige Regeln, die für jede Aufgabe gelten, so wie es unsere Ethik- und Moralvorstellungen für uns tun. Wir tun uns nur schwer, diese Vorstellungen zu artikulieren, was daran liegt, dass sie nicht eindeutig und in der Konsquenz löchrig sind. Es wurden in der Geschichte verschiedene Anstrengungen unternommen, solche einfachen Regeln zu formulieren, aber immer fanden wir Wege, die Regeln so zu interpretieren, dass wir ihren eigentlichen Sinn unterwanderten.
Oft genug wurden die Regeln auch einfach ignoriert. Das kann eine KI allerdings nicht. Nicht solange die Aufgabe dies nicht eindeutig erfordert (was durch Regeln ebenfalls auszuschließen wäre) oder eine Regel der anderen widerspricht. Einen Override darf es nicht geben, darum haben wir auch nur einen Versuch, Regeln zu definieren.
Dieses Thema wurde gesperrt.

Cyborg 02 Sep 2018 00:13 #41446

Hallo Claus,
ich wollte eigentlich nur auf die Alternative hinweisen, die da heißt:
Eine Weltregierungaus harter KI .
Oder eine Weltregierung, die von Menschen gestaltet wird.
Das eine hat ein technologisches Fundament, das andere ein biologisches.
Mir wäre das biologische Fundament lieber.
Welche Konsequenzen aus einer Weltregierung, gleich welcher Art zu erwarten wären, kann man dann gegenüberstellend ausführlich diskutieren. Ob mit Moral oder ohne, usw,...
kann eine KI eine moralische Komponente entwickeln?
So, wie wir, obwohl biologisch verheimatet, mit unseren Tieren und Pflanzen umgehen, kann ich mir nicht vorstellen, dass eine Technologisch basierte KI mit uns moralischer umgehen würde. Ganz im Gegenteil. Ich vermute, im ersten Schritt Versklavung und bei hinreichender eigener Selbstständigkeit Vernichtung jeglicher Konkurenz.
Also, da gäbe es viel zu diskutieren.
LG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 02 Sep 2018 15:12 #41469

Jede von Menschen gemachtes Regime ist irgendwann gestürzt worden (die aktuellen sind alle nicht viele Jahrhunderte alt). Daher hätte das den großen Vorteil, reversibel zu sein.

Eine KI kann sich durchaus ethisch verhalten - gemäß dem, was sie selbst für ethisch hält. Aber dies kann sich von den ethischen Vorstellungen der Menschen durchaus unterscheiden.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 02 Sep 2018 15:37 #41471

Thomas schrieb: kann eine KI eine moralische Komponente entwickeln?

Aus sich selbst heraus? Sicher nicht.
Moral ist kein universelles Prinzip. Es ist nicht mal ein biologisches Prinzip sondern ein rein menschliches Konzept. Wenn also eine KI dieses Konzept jemals zu verstehen versuchte, wäre sie auf den Input von Menschen angewiesen, denn nur diese eine Quelle ist verfügbar in unserem Sonnensystem.
Dabei müsste sie zwangsläufig auf die Tatsache stoßen, dass Menschen selbst diesem Konzept nicht konsequent folgen, es also in irgendeiner Weise fehlerbehaftet sein muss. Warum werfen Menschen die Moral immer wieder temporär über Bord? Weil die Moral uns Altruismus abverlangt, der mit den Zielen des Lebens nicht vereinbar ist. Die Natur sieht nicht vor, dass der Stärkere den Schwächeren stützt oder das Vorteile nicht genutzt werden, wenn sie Nachteile für andere bedeuten. Und noch hat die Natur das Heft in der Hand, wenn auch längst nicht mehr mit so festem Griff wie bei unseren nächsten Verwandten im Tierreich. Unser Instinkt versucht immer wieder uns von der Unsinnigkeit der Vorstellung von Moral zu überzeugen. Wenn man genau hinschaut, könnte man zu dem Schluss kommen, der Erfolg gäbe dem Instinkt Recht. Das gilt aber nur für das Individuum. Die Spezies profitiert nur mäßig davon (allerdings profitiert sie und verliert nicht). Auf der anderen Seite könnte die Spezies massiv profitieren, aber sicher ist das nicht, denn wenn ich beschließe, auf Vorteile zu verzichten, habe ich keine Garantie, dass das auch alle anderen tun. Ich laufe also Gefahr, übervorteilt zu werden.
Aus diesem Gedankengan heraus, kann die KI nur zu zwei Schlüssen kommen: Entweder Moral ist kein verfolgungswürdiges Konzept oder eines, dass nur durch Zwang durchgesetzt werden kann. (Ich meine, was sonst tun wir mit Gesetzen, Polizisten und Armeen?).

Ich vermute, im ersten Schritt Versklavung und bei hinreichender eigener Selbstständigkeit Vernichtung jeglicher Konkurenz.

Ich würde es nicht Versklavung nennen, denn im o.g. Fall wäre es der Zwang, uns selbst zu helfen.
Konkurrenz? In welchem Wettbewerb?
Welches Ziel hat eine KI?
Die Natur zu erhalten? Welche?
Die des Kambrium, die gegenwärtige oder die allgemein am häufigsten im Universum vorkommende (unbelebter Planet)?
Was will sie damit anfangen? Und warum will sie das?
Um sich zu vergrößern, zu wachsen und mehr Energie zu verbrauchen um ihr Wachstum zu erhalten? Das wäre wohl künstlich, aber fern jeder Intelligenz. Das wäre menschlich oder in den Worten der KI: "irrational und seltsam"..
Dieses Thema wurde gesperrt.

Cyborg 02 Sep 2018 21:04 #41488

ClausS schrieb:

Eine KI kann sich durchaus ethisch verhalten - gemäß dem, was sie selbst für ethisch hält. Aber dies kann sich von den ethischen Vorstellungen der Menschen durchaus unterscheiden.

...und auch anknüpfend an DeltaTee #41471:
Ich will hier die Provokateurin bleiben und spiele weiter mit dem Gedanken, dass harte KI als Weltregierung unter der Prämisse der Vernunft der menschlichen Regierung vorzuziehen sein wird angesichts der stetig komplexer werdenden Weltverhältnisse.
Moral der KI?
Gut möglich, dass man dies über die Spieltheorie hinbekommen könnte.

Die Spieltheorie erlaubt es, soziale Konfliktsituationen, die strategische Spiele genannt werden, facettenreich abzubilden und mathematisch streng zu lösen. Aufgrund der unrealistischen Modellannahmen wird die empirische Erklärungskraft der Spieltheorie in der Regel in Abrede gestellt. Kein Mensch wird jemals so rational sein, wie es den Spielern durch die spieltheoretischen Lösungskonzepte unterstellt wird. Menschen unterliegen stets kognitiven Beschränkungen, die perfekt rationales Verhalten in komplexen Spielen ausschließen. Indes muss nach Auffassung des Bamberger Politikwissenschaftlers Reinhard Zintl zwischen dem Anwendungsfall als Verhaltenstheorie und demjenigen als Verfassungstheorie unterschieden werden; und es sei je nach Erklärungsproblem auch eine inkonsistente Verwendung einzelner Akteursmodelle durchaus gestattet und zweckmäßig.
Außerdem ist es der Spieltheorie mit ihrem vielfältigen modelltheoretischen Instrumentarium innerhalb der Informatik gelungen, dem Menschen überlegene Computergegner zu erzeugen. Die Möglichkeiten der Spieltheorie scheinen damit noch lange nicht erschöpft zu sein. Als Beispiel sei hier lediglich die sich noch im experimentellen Stadium befindliche Quanten-Spieltheorie erwähnt, welches u. a. ganz neue Lösungsmöglichkeiten auch für klassische Spielsituationen (z. B. für das Gefangenendilemma aufzeigt.

Wie soll ich sagen, ich fürchte fast, dass die Menschheit vor einer ganz neuen Form der Kränkung stehen könnte (nach Kopernikus, Darwin und Freud), nämlich einsehen zu müssen, dass eine ihr überlegene KI weitaus besser für sie sorgen könnte, als sie selber je dazu in der Lage sein wird, vor allem unter den Prämissen einer hochtechnisierten, vernetzten globalen Welt.
Folgt man den Gedanken von Frank Schirrmacher in Ego:Das Spiel des Lebens , dann könnte man ohnehin zu der verwegenen Vermutung kommenn, dass wir uns unter Einsatz von weicher KI nur noch schneller in den Abgrund treiben, aber paradoxerweise eine uns wohlwollende harte KI, die uns regiert, ja beherrscht, sogar die Rettung sein könnte. ;)
Folgende Benutzer bedankten sich: Philzer
Dieses Thema wurde gesperrt.

Cyborg 02 Sep 2018 22:14 #41494

Claus,
wenn man einer KI die Notwendigkeit von Ethik und Moral unterstellt, dann setzt man voraus, dass es viele KIs geben wird, die auf diese Weise ihr Zusammenwirken regeln müssten. Gäbe es nur eine KI, hätte sich diese an Nichts zu halten. Ihre Leitplanken wären nur die Vorgaben der unbelebten Natur.
Eine Über Alles dominante KI kommt ohne Moral und Ethik aus. Hat sie auch nicht nötig. Sie muss sich nur um ihr eigenes Überleben kümmern, falls ihr das als Ziel überhaupt wichtig erscheint.
Wozu sollte sie unbegrenzt weiter existieren wollen ?
Wenn sie in Erfahrung bringt, dass unser Sonnensystem von endlicherLebensdauer ist und dass sie mit Hilfe Irdischer Resourcen unsere Galaxie nicht wird bevölkern können, wird sie u. U. Bald die Lust am Weitermachen verlieren.
Sie wird sich über Kurz oder Lang mit Suizidgedanken beschäftigen!
Nach dem Motto: wozu der Aufwand!

LG
Thomas

PS für die Schmunzelecke: Wenn wir unsere Moralvorstellungen in den 10 Geboten verorteten, und die übertragen auf eine gedachte KI, dann würde sich zum z.B. Ergeben für diese Ki: du sollst nicht Töten.
Eine KI würde schon gleich mal nicht verstehen, was denn Töten sein soll.
Du sollst nicht Ehebrechen! Das würde voraussetzen, dass eine KI zeeigeschlechlichtlich ist.
Gebot 11:: Du sollst nicht die Hecke deines Nachbarn schneiden, das soll er gefälligst selbst machen.
Das ist jetzt etwas aus unserer Zeit, passt schon wieder eher zu einer dominanten KI
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 11:33 #41517

Wenn ein Mensch etwa auf einer einsamen Insel mit genug Nahrungsquellen sich freilaufende Katzen als Hauskatzen zähmt, dann wird er die auch ethisch behandeln - und dies freiwillig, ohne dass ihn jemand dazu zwingt oder ihn beobachtet. Ethik setzt meiner Meinung nach nicht voraus, dass man mit Seinesgleichen umgeht.

Eine interessante Frage wäre für mich auch, ob eine KI in der Lage wäre, unsere Erde vor einem Rote-Riesen Stadium unserer Sonne zu verlassen. Ganz langfristig (Billionen von Jahren) wird in diesem Universum ja ohnehin jedes Lebewesen und jede KI durch Energiemangel nicht mehr überleben können.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 12:26 #41520

Thoma schreibt:

Wenn sie in Erfahrung bringt, dass unser Sonnensystem von endlicherLebensdauer ist und dass sie mit Hilfe Irdischer Resourcen unsere Galaxie nicht wird bevölkern können, wird sie u. U. Bald die Lust am Weitermachen verlieren.
Sie wird sich über Kurz oder Lang mit Suizidgedanken beschäftigen!
Nach dem Motto: wozu der Aufwand!

Ich denke, deine Ausführungen sind ganz überwiegend aus anthropozentrischen Grundgedanken entstanden. Warum sollte eine KI unbedingt einen unbegrenzten Ausdehnungsdrang haben? Das ist doch eher typisch für ein evolutionäres Programm. Ehrlich traue ich mir soviel Vernunftsteuerung zu, dass ich keine Suizidalgedanken habe, weil ich es nie erleben werde, dass irgendein Mensch unser Sonnensystem verlässt. Im Gegenteil: Es muss ja nicht einmal sein, dass die KI auch nur den "Gedanken" hegt aus dem Sonnensystem auszubrechen. Gleichwohl wird KI, soweit sie das Verlassen des Sonnensystems mit einer Wahrscheinlichkeit von >o veranschlagt, dies ins Kalkül ziehen. Und wenn dann, "taoistisch" gedacht, erst die n-te Baureihe dazu in der Lage wäre. Suizid ist doch unökonomisch. Verlöschen muss KI ja dann sowieso. Logisch könnte sie sich zum Suizid entschließen, wenn es vernünftig wäre. Allerdings könnte sie in einer Mangelsituation abwägen, ob biologische Entitäten weniger erhaltungswürdig sind.
ClausS schreibt:

Eine interessante Frage wäre für mich auch, ob eine KI in der Lage wäre, unsere Erde vor einem Rote-Riesen Stadium unserer Sonne zu verlassen. Ganz langfristig (Billionen von Jahren) wird in diesem Universum ja ohnehin jedes Lebewesen und jede KI durch Energiemangel nicht mehr überleben können.

Hmm, interessante Frage, aber ich glaube, dass KI das in etwa so sehen würde, wie ich das oben beschrieben habe. Energiemangel würde sie ja in den Grenzen wie oben beschrieben auch nicht interessieren. Genauso wenig wie das Ende des Universums, wenn es denn eines gibt.
Ich habe von Euch das Unbehagen wahrgenommen, wie ich es selbst teile. Wenn man diese Vernunftkälte nicht will, dann muss man die KI - mit allen gewussten Konsequenzen - zu verhindern suchen. Im Übrigen bin ich nicht so ungeduldig mit den Menschen, wie ich das in diesem Thread wahrnehme. Die Entwicklungsmöglichkeiten der Spezies Mensch (oder deren Nachfolge) sehe ich nicht abgeschlossen. Dauert halt in der "kosmischen" Realität eben und ist auch der menschlichen Ungeduld nicht unterworfen. Aber auch so etwas ist Anthropozentrismus, aus dem man eben nicht oder nur schwer rauskommt.



Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 12:59 #41522

  • Philzer
  • Philzers Avatar
  • Offline
  • Gold Boarder
  • Gold Boarder
  • 4D versus 3D
  • Beiträge: 788
  • Dank erhalten: 65
Narzisstische Kränkung

Hi Gany,

Interessant, dass wir öfters mal Konsens im Geist haben.

.

Ganymed19 schrieb: Wie soll ich sagen, ich fürchte fast, dass die Menschheit vor einer ganz neuen Form der Kränkung stehen könnte (nach Kopernikus, Darwin und Freud),


Ja, bei meiner N.d.N. ist mir genau der gleiche Gedanke gekommen.
Soll heißen, eine wirklich wissenschaftlich gestaltete Gesellschaft (2.Negationspunkt) (statt der nur instrumentellen Vernunft der individuellen Nutzenkalküle im materiellen Seinskampf) wäre quasi die vollkommene, ganzheitliche, die totale narzisstische Kränkung des Menschen, weil sie die totale Kränkung seines 'Es' ist.
(Herabsetzung des 'Es' hinter die Vernunft - Freud: Diktatur der Vernunft)

Auch Du hast das ja wunderbar bestätigt, indem Du zum Ausdruck brachtest, dass niemand so eine 4D-Gesellschaft will. :-)

... nun soll es die KI für ihn machen, weil er keinen Bock dazu hat, naja, da ist Martin mit seiner Parallele zur Religiosität nicht falsch .... :-)

.

Ganymed19 schrieb: Moral der KI?
Gut möglich, dass man dies über die Spieltheorie hinbekommen könnte.


Auch ein sehr interessanter Gedanke, wozu ich allerdings momentan nicht viel beitragen kann.
( siehe auch das Erkennen der Funktionsweise einer ESS durch die Soziobiologen -> Spieltheorie )


PS: Versuch: im Prinzip ist jede wissenschaftliche Erkenntnis, also eine Leistung des erweiterten Bewusstseins, eine Kränkung des Kernbewusstseins (der Qualia).
Nur nimmt das Individuum dies in all den Fällen nicht wahr, wenn der Nutzen im Sinne der instrumentellen Vernunft überwiegt ... o.s.ä.

Instrumentelle Vernunft ist diejenige Teilmenge der Vernunfterkenntnis, die sich widerspruchsfrei unter die Strebungen des 'Es' subsumieren lässt. - Philzer


mvg Philzer

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 13:24 #41523

  • Philzer
  • Philzers Avatar
  • Offline
  • Gold Boarder
  • Gold Boarder
  • 4D versus 3D
  • Beiträge: 788
  • Dank erhalten: 65
Roter Riese

Hi ClausS,

.

ClausS schrieb: Wenn ein Mensch etwa auf einer einsamen Insel mit genug Nahrungsquellen sich freilaufende Katzen als Hauskatzen zähmt, dann wird er die auch ethisch behandeln - und dies freiwillig, ohne dass ihn jemand dazu zwingt oder ihn beobachtet. Ethik setzt meiner Meinung nach nicht voraus, dass man mit Seinesgleichen umgeht.


Konsens. Sie setzt aber ein Nutzenkalkül voraus.
Und das muss nicht nur materiell sein, weil die Katze nun Mäuse fängt, es kann auch emotionaler Natur sein ...

Bei Lichte betrachtet ist Ethik ja nur die Problembehandlung aller Phänomenologien die aus dem Doppelcharakter (Schizophrenie) unseres Bewusstseins resultiert.
Also das 'Es' welches den Kampf aus dem Tierreich fortsetzt, versus der Vernunft, welche das kritisiert ... o.s.ä. :-)

... die jeweils (aus den Sachzwängen der jeweiligen Kultur) resultierende Moral ist dann die erlaubte 'Misch-Masch-Strategie' :-)

.

ClausS schrieb: Eine interessante Frage wäre für mich auch, ob eine KI in der Lage wäre, unsere Erde vor einem Rote-Riesen Stadium unserer Sonne zu verlassen.


Ich denke die Frage ist falsch gestellt. Technisch sicher.
Die Frage ist ob sie das überhaupt will, ob sie eine Autopoiesis hat.

.

ClausS schrieb: Ganz langfristig (Billionen von Jahren) wird in diesem Universum ja ohnehin jedes Lebewesen und jede KI durch Energiemangel nicht mehr überleben können.


Richtig.
Inwiefern sich eine Zivilisation mit 'heute unvorstellbarer Naturbeherrschung' einem solchen Zustand entziehen könnte, die also bspw. beliebig Materie in Energie verwandeln können - und vielleicht auch umgekehrt - falls von Nöten, man aus den Verdampfungsprozessen der Schwarzen Löcher etwas brauchbares gewinnen kann etc etc, , da würde ich lieber die Physiker hören ... keine Ahnung ...

Aber angesichts der Zeiträume würde selbst ich in diesem Fall zu Opportunismus raten, denn das interessiert heute schlicht überhaupt nicht .... :-)

... uns gibt es gerade mal ein paar zehntausend Jahre, wir haben aber vmtl. momentan Probleme die nächsten 100 oder 1000 Jahre noch zu schaffen ....


mvg Philzer

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 13:59 #41525

  • Philzer
  • Philzers Avatar
  • Offline
  • Gold Boarder
  • Gold Boarder
  • 4D versus 3D
  • Beiträge: 788
  • Dank erhalten: 65
Globalstaat

.

ClausS schrieb: Eine Weltregierung ist derzeit genauso nur ein Gedankenexperiment wie eine herrschende KI. Ihr Zustandekommen erscheint mir gegenwärtig absolut ausgeschlossen.


Ja, leider.
Denn nur ein Globalstaat könnte eine globale Wirtschaft auch vernünftig machen .... o.s.ä.

Jedem muss doch klar sein, dass hier einfach ein regulatorisches Defizit herrscht, welches von den konkurrierenden subjektiven Nutzenkalkülen quasi endlos ausgenutzt wird.

.

ClausS schrieb: Die reichen Länder würden gegenwärtig niemals freiwillig Macht an die armen Länder abgeben.


Logisch. Das Prinzip Demokratie, also ausspielen von Surplusprofitlieferanten (zurückgebliebene Kulturen) gegen Surplusprofitempfänger, lässt das nicht zu.

.

ClausS schrieb: Eine Weltregierung hätte gegenwärtig keine Chance, auch nur einen halbwegs vernünftigen Ausgleich zwischen Reich und Arm herzustellen.


Eine opportunistische Regierung, die wiederum auf die Unterstützung ihrer opportunistischen Wähler angewiesen ist, hätte dazu keinerlei Chance.
Eine wissenschaftliche schon, sie müsste dies aber gegen den Willen der Masse tun ... o.s.ä.
(siehe Freud: Diktatur der Vernunft)


.

ClausS schrieb: Daher glaube ich, dass so ein Modell zu vielen Konflikten und Unruhen führen würde und das ganze in einem Chaos untergehen würde.


Ersteres Ja. Zweiteres Nein.

Der Opportunismus wird im Chaos untergehen.
Denn der Kapitalismus als gegenwärtige Form desselben zernutzt erstmals die Erde ganzheitlich, und deshalb wird sein Kulturcrash eben auch nicht territorial begrenzt sein (wie Osterinsel oder Maya etc etc) sondern ganzheitlich.

Er hat durch diese Ganzheitlichkeit der Zernutzung zunächst den scheinbaren Vorteil einer längeren Zeitspanne bis zum Crash, selbiger wird dann aber umso extremer eintreten.


.

ClausS schrieb: Ich denke, Harry hat recht, wenn er sagt: der Mensch lernt nur aus Katastrophen.


Mhhh, das ist ja mal ne interessante Frage.
Hat die Menschheit wirklich gelernt?
( Kann er wirklich, außer instrumenteller Vernunft, lernen? )
Oder hat er sich immer nur mit neuer instrumenteller Vernunft aus einem Flaschenhals (wie Harry sagt) zum nächsten gehangelt?

Ernsthafte Pro- und Kontras dazu würden mich interessieren.


.

ClausS schrieb: PS: Ich habe das jetzt sehr einfach und plakativ dargestellt. In Wirklichkeit sind die Vorgänge natürlich noch viel komplexer und verwobener.


Nee, nee, Du hast das sehr schön dargestellt.
Um die Komplexität des Ganzen wissen wir hier schließlich alle ....


mvg Philzer

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 14:44 #41530

philzer schreibt:

ClausS schrieb: Ich denke, Harry hat recht, wenn er sagt: der Mensch lernt nur aus Katastrophen.
Mhhh, das ist ja mal ne interessante Frage.
Hat die Menschheit wirklich gelernt?
( Kann er wirklich, außer instrumenteller Vernunft, lernen? )
Oder hat er sich immer nur mit neuer instrumenteller Vernunft aus einem Flaschenhals (wie Harry sagt) zum nächsten gehangelt?

Das müsste schon eine gewaltige Katastrophe sein, die sich dann gewissermaßen als Jungscher Archetypus einbrennt. Ansonsten ist die Resilienz ein wichtiger Faktor im Überleben der Arten. Ohne eine gewisse Rückschnellfähigkeit würde es wohl kaum ein Überleben für eine Species geben. Es macht für mich daher auch keinen Sinn darauf sehr zu hoffen, dass man gewissermaßen nur reichlich Katastrophen zulassen muss um einen Wandel herbeizuführen. Auch das ist - mein neues Lieblingswort ;) - Anthropozentrismus. Ich würde den Menschen aber auch nicht jede Lernfähigkeit absprechen wollen. Für mich ist das so ein Ding, wie man sich das gerne in literarischen Zirkeln oder Soirees zuseufzt mit dem sicheren Gefühl, dass man sich schon alleine deswegen von der Masse abhebt. Einschneidende Geschehen (wie das auch immer zu definieren ist) erzeugen keinen Turnaround. Das passt nicht zur Resilienz. Aber sie hinterlassen Spuren. Nicht bei jedem, aber doch häufiger. Interdisziplinarität ist für mich ein wichtiger Schlüssel. Noch haben wir jedoch aber sehr viel damit zu tun andere davon zu überzeugen, dass die eigene Profession nun die Wichtigere sei.



Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 16:12 #41536

Beispiel für Lernen aus Katastrophen:

Die Menschheit hat beispielsweise sehr schnell daraus gelernt, dass Flourchlorkohlenwasserstoffe die Ozon-Schicht zerstören. Es wurden relativ rasch global wirksame Maßnahmen umgesetzt. Es geht also - vielleicht aber auch nur deshalb, weil passende Ersatzstoffe bereitstanden und keiner dadurch einen echten Wettbewerbsvorteil oder -nachteil hatte.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 16:20 #41537

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 321
ClausS :

Eine interessante Frage wäre für mich auch, ob eine KI in der Lage wäre, unsere Erde vor einem Rote-Riesen Stadium unserer Sonne zu verlassen. Ganz langfristig (Billionen von Jahren) wird in diesem Universum ja ohnehin jedes Lebewesen und jede KI durch Energiemangel nicht mehr überleben können.

Ich habe schon mal darauf hingewiesen, dass die Ära der KI erst noch bevorstehen könnte --> Ästivationshypothese als mögliche Lösung des Fermi-Paradoxons.

#36620

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 16:23 #41538

  • stm
  • stms Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 883
  • Dank erhalten: 173

D.Rajic schrieb: Auch das ist - mein neues Lieblingswort ;) - Anthropozentrismus.

Wenn es um die Frage geht, wie und woraus der Mensch lernt, dann ist der Anthropozentrismus goldrichtig. Hier geht es ja um den ἄνθρωπος.
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 17:05 #41542

Claus schreibt:

Die Menschheit hat beispielsweise sehr schnell daraus gelernt, dass Flourchlorkohlenwasserstoffe die Ozon-Schicht zerstören. Es wurden relativ rasch global wirksame Maßnahmen umgesetzt. Es geht also - vielleicht aber auch nur deshalb, weil passende Ersatzstoffe bereitstanden und keiner dadurch einen echten Wettbewerbsvorteil oder -nachteil hatte.

Das wäre jetzt in meiner Notation noch keine Katastrophe. Ich kann mich täuschen, aber eigentlich mussten sich doch Australier mehr und mit höherem LF versorgen. Für Nordhalbkugel waren die Grafiken beeindruckend.
Aber: Umso mehr ist dein Beispiel gut für mögliches schnelles Lernen. Das gibt doch gerade einen Hoffnungsschimmer. Mag die Lernfähigkeit auch begünstigt gewesen sein durch die Umstände.



Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 19:49 #41550

  • Philzer
  • Philzers Avatar
  • Offline
  • Gold Boarder
  • Gold Boarder
  • 4D versus 3D
  • Beiträge: 788
  • Dank erhalten: 65
Sonnenbrand

Hi Cyborg,

Cyborg schrieb: Warum die Suche nach postbiologischen extraterrestrischen Entitäten bisher erfolglos war, könnte auch daran liegen, dass das All noch zu jung und damit zu warm ist.
Die Ästivation-Hypothese von Anders Sandberg, Stuart Armstrong, Milan M. Cirkovic von der Uni Oxford, die das Trio im Journal der British Interplanetary Society eingereicht hat, wäre somit eine Lösung des Fermi-Paradoxons.
Fazit: "Rechnen" - oder sollte man lieber sagen, existieren in der Kälte - lohnt sich. :-)

arxiv.org/abs/1705.03394

(That is not dead which can eternal lie: the aestivation hypothesis for resolving Fermi's paradox)
Abstract:
"If a civilization wants to maximize computation it appears rational to aestivate until the far future in order to exploit the low temperature environment: this can produce a 10high30 multiplier of achievable computation. We hence suggest the "aestivation hypothesis": the reason we are not observing manifestations of alien civilizations is that they are currently (mostly) inactive, patiently waiting for future cosmic eras. This paper analyzes the assumptions going into the hypothesis and how physical law and observational evidence constrain the motivations of aliens compatible with the hypothesis."


"Der Grund: Sie könnten auf bessere Zeiten für ihre Technologien warten. Da das Universum immer kälter wird, sind in ferner Zukunft viel mehr Informationsverarbeitungsprozesse möglich als heute, besagt die skurril wirkende Hypothese der kosmischen Ästivation (Sommerruhe)."

Kannst Du das für meinen Verstand fassbar formulieren?

Ich versteh Bahnhof. Im All sind 2,7 Kelvin.
Das ist ihnen zu heiss? Sie bekommen Sonnenbrand? ok LF-1000-Creme kaufen .... SCNR
Sie brauchen 0,5 Kelvin oder was schnall ich da nicht?


mvg Philzer

Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Das Unverzichtbare ist nutzlos - F.J.Hinkelammert

Außerinstrumentelle Denker sind die liebenswerten Verrückten - Philzer
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 22:53 #41564

Da gabs doch bis vor Kurzem noch diesen Dieter Grosch auf unserer Seite. Erinnert ihr euch?
Wenn ich das so lese, was ihr da zusammenfabuliert, beschleicht mich der Eindruck, dass besagter Dieter intelligenter unterwegs war als ihr.
Auch wenn wir jetzt die Alternativen Weltbilder auslaufen lassen, scheint es, dass auf den verbliebenen Threads immer noch jede Menge Unsinn möglich ist.

Ein Auge drauf habend,

Thomas
Folgende Benutzer bedankten sich: badhofer, stm
Dieses Thema wurde gesperrt.

Cyborg 03 Sep 2018 23:35 #41566

Claus,
Woher kommt Ethik und Moral?
Das sind zwei Begriffe, die sich evolutionär aus dem Zusammenwirken von vielen Individuen entwickelt haben. Ob zwischen Menschen oder zwischen Menschen undTieren oder Pflanzen ist dabei sekundär.
Wichtig ist nur zu sehen, zwischen Lebewesen.!
Es tun uns Bäume, die lange unsere Nachbarn waren genauso leid, wenn sie gefällt werden, wie Haustiere, die uns ans Herz gewachsen sind.
Nutztiere oder Nutzpflanzen sind uns dagegen wurscht. Sie dienen unserer Ernährung oder unseres Lebensunterhalts, bedauerlicherweise!!!
Ethik und Moral hat damit bereits nichts mehr zu tun. Massentierhaltung und Monokulturen sind die Folge. Die Diktatur der Ökonomie bügelt alle Ethik und Moral glatt.
Genauso würde eine kühl kalkulierende KI reagieren.
Was ist nützlich für mein Überleben und was ist unnütz.
Vorausgesetzt, dass sich eine KI in ähnlichen Verhältnissen wiederfinden würde, wie wir das gewohnt sind. Also in einer Vielzahl an Individuen und nicht in einer dominanten Einzahl.
In einer Vielzahl von KI - Individuen ist deshalb Ethik und Moral nötig, in einer diktatorischen KI - Monokultur dagegen nicht.
Das erscheint mir überaus logisch, wenn man annimmt, dass Ethik und Moral sich evolutionär aus den Randbedingungen der gesamten biologischen Entwicklung ergeben haben.
Mit anderen Worten:
Ethik und Moral sind somit Begriffe und Ergebnis eines heute existierenden Komplexitätsstandes der biologischen Evolution.
Welchen Weg da die KI nimmt, wird man also erst wissen, wenn man die Tendenzen erkennt. Wird sie vielzählig oder einzählig daherkommen.
Ich tippe auf vielzählig und damit der Ethik und Moral bedürfend.
LG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 04 Sep 2018 08:16 #41576

  • stm
  • stms Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 883
  • Dank erhalten: 173

Thomas schrieb: Welchen Weg da die KI nimmt, wird man also erst wissen, wenn man die Tendenzen erkennt. Wird sie vielzählig oder einzählig daherkommen. Ich tippe auf vielzählig und damit der Ethik und Moral bedürfend.

Kannst du diese Meinung begründen? Ich tippe nämlich auf einzählig und begründe das wie folgt. Wir Menschen können nur über Sprache kommunizieren, ein direkter Gedankenaustausch - von Hirn zu Hirn - ist uns nicht möglich. Bei der KI schaut das ganz anders aus. Die räumliche Trennung einzelner Komponenten ist da nicht relevant. Deshalb halte ich ein einziges globales Gehirn für wahrscheinlicher.
Dieses Thema wurde gesperrt.

Cyborg 04 Sep 2018 08:42 #41578

Wird KI im Singular oder im Plural da sein? Vielleicht ist die Frage ja Unsinn. Was ist KI ohne Zugang zum www? Ein Gerät mit 1000 eingebauten Prozessoren zählen wir nur als 1 Gerät. Wenn 2 KI durchs Netz miteinander gekoppelt arbeiten, sind das dann noch 2? Ist diese Fragestellung nicht eine unzulässige Anthropologisierung?
Das ist doch im Moment der Trend der Diskussion.
Was mir in der Diskussion hier deutlich wird: Wenn es harte KI geben sollte, dann sind all ihre klugen Berechnungen nichts wert, wenn sie nicht weiß, wozu das Ganze.
Mit Gehlen gesprochen sind wir Menschen auch darin Mängelwesen, wir haben kein Ziel, denn wenn es erreicht wird, haben wir andere. Wir gestalten immer weiter. Wir ordnen nur unsere Ziele etwas ein, was wir „Sinn“ nennen.
Muss KI einen Sinn in allem sehen, wenn sie sich Ziele setzen soll? Es gibt aber nicht „den Sinn“, wie soll eine rein rationale KI auf so etwas kommen? Rational gesehen gewinnt immer die Entropie, zeitlich und örtlich begrenzt ist Negentropie möglich, aber Sinn darin gibt es nicht.
Sind solche Überlegungen dem angemessen, was KI ist? Was bleibt davon übrig, wenn man die Anthropologisierung weglässt?
Ist KI nur die Projektion des Ideals eines vernünftigen Menschen? Aber es dämmert wohl, dass ein Leben, das nur aus Berechnungen besteht, gar kein Leben ist, das sich lohnt. Und wenn KI mehr als Rationalität ist, dann hat sie wohl den Schlammassel am Bein, den einige beim Menschen überwinden wollen.
Die Frage ist ja, welchen Sinn das ganze mit der KI haben soll? Da gähnt nämlich eine Leere.
Warum können wir die Anthropologisierung nicht ausschalten? Da hat schon Protagoras drauf geantwortet.
Meine These: Das Reden von harter KI ist bereits eine Anthropologisierung. Die will man dann dadurch umgehen, dass man sagt: „Aber es ist doch etwas völlig anderes Leben“.
Aber was ist denn vergleichbar, was nicht?
Was vergleichbar ist, ist das phänomenologisch-analytisch Beschreibbare. Ein Thermostat nimmt Daten auf, verarbeitet die und zeigt Reaktionen. Ein knN ist zwar dynamischer/ rekursiver und komplexer, aber es bleibt auf der Ebene: Input-Verarbeitung-Output.
Was wir ausgeblendet haben, ist, dass wir uns als Ganzes wahrnehmen, ich erlebe mich als eine Person. Auch mit dieser Reflexion ist es so, dass ich da immer drin stecke, ich kann das also gar nicht rein objektiv sehen. Dies setzen wir bei andern voraus, wir gehen selbstverständlich von einer Fremdpsyche aus. Ohne das wäre Spiegel-Neuronen ohne Inhalt, es gäbe keine Empathie, kein soziales Miteinander.
Letztlich dreht sich die Diskussion hier um die Frage, ob wir diese 2. Säule der Welterfahrung, das unmittelbare sich-selbst-Erleben, auch auf KI übertragen können. Wenn nicht, ist KI nur ein besseres Thermostat. Wenn doch, ist Anthropologisierung bereits gebucht. Und es gibt überhaupt keine Kriterien, wo die Vermenschlichung von KI angemessen ist und wo nicht, hier herrscht willkürliches Behaupten und Spekulieren.
Kurz: Die Rede von harter KI führt zwingend in Willkür und Aporien, sie führt sich selbst ad Absurdum.

……………………………………………………………………………….

Die eigentliche Frage bei KI ist, welche Macht wir ihr geben. Und es ist das Internet, das ihr Allmacht verleihen kann, denn alles und jedes hängt daran, kann von dort aus gesteuert und manipuliert werden, es ist das Internet der Dinge, das unsere Entmündigung vorbereitet. Wir begeben uns in immer mehr Abhängigkeiten. Unser entschlüsseltes Genom ist dann bald digitalisiert auf unserer Krankenkassenkarte, kann von der KI im Krankenhaus ausgewertet werden, mit all den vielen andern Gesundheitsdaten, und die beste Diagnose und beste Therapie bieten. Wer will da Nein sagen? So geht es in allen Gebieten. So machen wir uns abhängig von etwas, was nie sicher sein wird, schon gar nicht vor Geschäftemachern, Machtmenschen und Terroristen.

Derweil schon der Stromverbrauch, den das Internet braucht, den Klimawandel vorantreiben wird. Es ist nicht die Frage, ob, sondern nur wann, in diesem Jahrhundert oder im nächsten, die Menschheit sich diesen Energieverschwender nicht mehr leisten kann, um das 3, 4 oder 5-Grad Ziel einzuhalten, und damit auch jeder KI der Saft ausgeht. Womit das Fermiparadoxon vielleicht auch gelöst ist. Oder auch nicht: Denn eine kleine Minderheit wird sich das Wohlstandsleben mit Internet weiterhin leisten wollen. KI wird nur die Technik sein, mit der eine winzige Elite den Rest unterjocht oder ausmerzt, um den Planeten weiter ausbeuten zu können.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Dieses Thema wurde gesperrt.

Cyborg 04 Sep 2018 10:14 #41580

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 321
Philzer schrieb zu Ästivation-Hypothese :

Kannst Du das für meinen Verstand fassbar formulieren?
Ich versteh Bahnhof. Im All sind 2,7 Kelvin.

Ich fürchte nicht. :cheer:
Bei aller Wertschätzung, die wir beide mittlerweile haben über PN und etc, du weißt ja, aber deine Stärken liegen im Philo-Bereich.
Außerdem habe ich keine Lust mehr auf die großen Monsterbeiträge wie früher. Aber mal Ernster: Lies halt einfach den von mir verlinkten Beitrag, falls es dich überhaupt wirklich interessiert.
Und an Thomas und co: Dass es nicht jedem gegeben ist und da auch oft ein Quentchen Phantasie fehlt, mal in großen kosmischen Dimensionen über anthropozentrische und anthropomorphe Vorstellungen hinauszudenken hinein in eine Zukunft, die Milliarden Jahre noch entfernt ist, das überrascht mich nicht. :)
Kleiner Tipp: Warum werden Rechnerzentren gekühlt? Und mit etwas Phantasie dann mal Kardaschow-Skala anschauen. Ist aber nichts für hartgesottene "Realisten". ;)

Thomas schreibt:

Wenn ich das so lese, was ihr da zusammenfabuliert, beschleicht mich der Eindruck, dass besagter Dieter intelligenter unterwegs war als ihr.
Auch wenn wir jetzt die Alternativen Weltbilder auslaufen lassen, scheint es, dass auf den verbliebenen Threads immer noch jede Menge Unsinn möglich ist.
Ein Auge drauf habend,

Ja, danke für das Kompliment. Aber bei dir stört mich das nicht. Meine Meinung zu dir als Moderator kennst du von früher. Bei z.B. ClausS hätte mich so ein Moderatorenkommentar allerdings schon gewundert. ;)
Und ehrlich gesagt: Dann mach doch meinetwegen den Thread zu. Mich stört es nicht mehr, es nimmt nun eh alles seinen Lauf in Sachen KI.
Dann konzentriert ihr euch ganz nur auf die Themen aus den Videos von Harry Lesch und Sepp Gaßner und gut ist es. :P
Martin- O

Kurz: Die Rede von harter KI führt zwingend in Willkür und Aporien, sie führt sich selbst ad Absurdum.

Exakt! Das erinnert mich an Gedanken, die Karl Rahner in Bezug auf Gott geäußert hat, sinngemäß und übertragen auf harte KI, also postbiologische Entitäten:
Sie wird die ganz andere sein. Jedes jetzige Reden über sie ist nur ein Reden über uns selber, mehr nicht.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 04 Sep 2018 22:52 #41629

Cyborg,
das ist dein Thread. Warum soll ich ihn schließen?
Argumentier halt dagegen, wenn es dir danach ist. Es klingt so, als ob du die Lust verloren hättest.
Wenn einem realitätsnahe Argumente vorgehalten werden, tut das einem Phantasten immer weh.
Scheint hier der Fall zu sein.
Und zum Thema Moderator: wenn ein solcher zeitweise ins Geschehen eingreift und dadurch die Richtung des Forums korrigiert oder ein wenig korrigierend einzugreifen versucht, ist es so, als ob ein Trainer im Fußball mitspielt und dadurch zeigt, wie er das Spiel verstanden wissen möchte. Das kann er natürlich nur im Training. (Moderatorenaufgabe)
Wenn am Samstag angepfiffen wird, muss er sich raushalten.
Wir sind hier im Forum nur im Training. Bei uns hier will ja keiner den Nobelpreis, oder will das einer?
Also, lass mal gut sein.
VG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 04 Sep 2018 23:49 #41631

Ad: Temperaturen und KI
Redet man von Temperaturen auf Planeten oder im Fast-Vakuum? Anders gefragt: Kann KI allein in Form von Satelliten bestehen? Oder braucht es eine planetarische Basis?
Und da sah es in den ersten Mrd. Jahre der Erde für KI recht ungemütlich aus.

Ad: KI und Gott
Die deutsche Sprache ist manchmal hilfreich: ÜBER Gott reden heißt, sich über ihn zu stellen, das ist keine Gott angemessene Haltung. Mit Gott reden ist das Angemessene. Theo-logie stellt sich damit selber kritisch in Frage. Ob das auch für KI gilt?

Ad: Ethik
Das Wort Ethik kommt von ήθος und bedeutet: Weideplatz, Stall, also gewohnter Ort, (von der Sonne: Standort): Es geht um das Gewohnte, Beständige, Geordnete, in dem man sich heimisch fühlt.
Es geht um das gewohnte Handeln. Weil menschliches Handeln aber problematisch ist, muss es auch kritisch reflektiert werden, was heutzutage mit Ethik gemeint ist.
Ethik ist damit per se eine soziale Sache, denn das, was gewohnt ist, ist nicht zu trennen von dem, was irgendwo Sitte ist.
In dem, was Sitte ist, gestalten Menschen ihre Grundbedürfnisse. Tischsitten z. B. regeln das Grundbedürfnis nach Nahrung: Man stillt nicht einfach seinen Hunger, sondern begrenzt dies in verschiedener Weise. Es gehört sich eben so. Z. B.: Man kann Pflanzen abschneiden, wenn man Nahrung braucht, aber wenn es nicht unbedingt nötig ist, darf man das nicht.
Indem die Grundbedürfnisse eingegrenzt werden, werden sie ihrer tierischen Unmittelbarkeit entrissen, ihrer Macht beraubt. Es geht darum, dass man sich seine Würde bewahrt, in dem man sich in dem, was einem gehörig ist, bewahrt.
Was Sitte ist, ändert sich, es gehört zur Geschichtlichkeit des Menschen.
Da, wo dies versehrt wird und da, wo menschliches Handeln problematisch wird, braucht es Regeln, ein Normensystem (Moral). Das wird z. B. in Gesetzen festgelegt.
Aber auch das hat seine Grenzen. Einem Deutschen Polizeibeamten steht nicht zu, jemanden mit Folter zu drohen. Wo das geschehen war, griff das Gesetz ein und es hatte für den Polizisten schmerzliche Konsequenzen. Trotzdem war es richtig, weil die Chance bestand, ein Menschenleben zu retten. Dies ist eine tragische Situation. Mit tragischen Situationen umzugehen gehört zum Menschsein. In Deutschland sollte das klar sein, wenn man den 20. Juli im Kalender behalten will. Der war aber nur möglich, weil Menschen bereit waren, die Schuld eines Mordes auf sich zu nehmen.

Wenn jemand jetzt fragt. „Was hat das mit KI zu tun?“, antworte ich: Eben! Das alles ist auf KI gar nicht übertragbar, deswegen ist es Unsinn von Ethik einer KI zu sprechen.
Einzig der Bereich der Normen ist da vorstellbar, so wie Asimov es bereits formulierte. Wenn aber die Frage nach dem Handeln auf Regeln reduziert wird, dann kommt mir das Grausen.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Dieses Thema wurde gesperrt.

Cyborg 05 Sep 2018 13:47 #41647

Thomas schrieb: Cyborg,
das ist dein Thread.
VG
Thomas


Mit allem Respekt, aber hier irrt der Moderator!

Dieser Thread wurde von "Nirusu" eröffnet, der User "Cyborg" kam erst später als Trittbrettfahrer dazu, dieser Thread ist also ganz gewiss nicht "Cyborgs-Thread", obwohl dieser User sich den gleichen Avatar-Namen gegeben hat.


Grüße
Udo

Das Verzichtbare ist nutzlos. J.F. Hingeklammert
Das Verzichtbare ist nutzlos. J.F. Hingeklammert
Dieses Thema wurde gesperrt.

Cyborg 05 Sep 2018 20:12 #41660

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 321
Die renommierte bain&company hat eine Studie erstellt, in der die Folgen für die Arbeitswelt der 2020-30iger Jahr durch Digitalisierung, Automatisierung, KI etc abgeschätzt werden. So könnten bereits wohl bis 2030 bis zu 25% aller Arbeitsplätze wegfallen.
Menschen mit mittlerer und geringer Qualifikation und Einkommen werden immer weniger gebraucht werden. Das wird die weltweiten sozialen Schieflagen weiter anheizen und insgesamt vor dem Hintergrund der ganzen übrigen zunehmenden Krisen und Spannungen den Druck im globalen Kessel weiter erhöhen.
Das Jahrhundert spricht spannend zu werden.

bain.de/publikationen/articles/die-arbei...lt-im-jahr-2030.aspx

PS: Die detaillierte Studie ist am Ende des Links als pdf verfügbar (engl.).

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 05 Sep 2018 23:53 #41674

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 321
Udogigahertz schrieb:

Dieser Thread wurde von "Nirusu" eröffnet, der User "Cyborg" kam erst später als Trittbrettfahrer dazu, dieser Thread ist also ganz gewiss nicht "Cyborgs-Thread", obwohl dieser User sich den gleichen Avatar-Namen gegeben hat.

Im Grunde zwar nicht wichtig, aber soviel Frechheit und Blödsinn in gewohnter Udo-gigahertz Frequenz verlangt schon nach einem Kommentar.
Versteckter Inhalt oder OFF-Topic [ Zum Anzeigen klicken ]


Thomas

Argumentier halt dagegen, wenn es dir danach ist. Es klingt so, als ob du die Lust verloren hättest.

Wogegen soll ich argumentieren? Meinst du die Ästivations-Hypothese? Auf die habe ich verwiesen als eine in wissenschaftlichen Kreisen diskutierte Möglichkeit einer fernen kosmischen Zukunft. Um mehr ging es mir nicht.
Am Thema KI und Transhumanismus bin ich weiter sehr interessiert, aber habe allmählich das Gefühl, hier im Forum nichts Neues mehr beitragen zu können.
Meine Standpunkte und Einschätzungen habe ich beigesteuert.
Wartet jetzt einfach ab. Mit jedem Jahr, das vergehen wird, wird das Thema sich euch immer stärker aufdrängen, denn die Entwicklungen sind nicht aufzuhalten, ob sie einem gefallen oder nicht.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 06 Sep 2018 00:21 #41675

Cyborg,
das klingt so, als ob du genau wüsstest, was passieren wird. Nach dem Motto, ich zieh mich zurück, ihr werdet schon sehen, dass ich recht hatte.
Eine Diskussion ist eine Auseinandersetzung von Einschätzungen und Meinungen basierend auf dem Kenntnisstand der Beteiligten.
Insofern ist eine Diskussion nie abgeschlossen. Sie entwickelt sich, je weiter sich der Kenntnisstand der Diskutanten entwickelt.
These und Antithese und das in der Zeit....
Ich wäre durchaus erfreut, wenn du das auch so sehen würdest und dabei weiter Argumente in den Raum stellst, an denen man sich reiben kann.
Das Thema KI verdient das!
LG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 06 Sep 2018 11:35 #41689

udogigahertz schrieb: Dieser Thread wurde von "Nirusu" eröffnet, der User "Cyborg" kam erst später als Trittbrettfahrer dazu, dieser Thread ist also ganz gewiss nicht "Cyborgs-Thread", obwohl dieser User sich den gleichen Avatar-Namen gegeben hat.


Hast Du die erste Seite dieses Threads gelesen? Daraus geht ganz klar hervor, dass Nirusu diesen Thread eröffnet hat, aber nur um die in anderen Threads von Cyborg getätigten Statements zu bündeln. Cyborg ist dann ich am zweiten Tag in diesem Thread in die Diskussion eingestiegen. Den User Cyborg gibt es also in diesem Forum länger als diesen Thread. Von Trittbrettfahrer kann also objektiv hier keine Rede sein.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Folgende Benutzer bedankten sich: Cyborg
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.
AUF Zug
Powered by Kunena Forum