Willkommen, Gast
Benutzername: Passwort: Angemeldet bleiben:

THEMA:

Cyborg 06 09. 2018 13:17 #41694

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
Thomas,
ja, du hast im Grunde schon Recht mit #41675. Aber ich habe mir fest vorgenommen, hier weniger Zeit im Forum zu investieren, weil ich schon Phasen hatte, wo es einfach ausuferte. (Meine Frau und der Hund haben sich schon beschwert :ohmy: )
Andererseits stimmt es schon auch, dass ich das Wesentliche gesagt habe.
Natürlich habe ich auch keine Glaskugel u. weiß nicht, was die nächsten Jahrzehnte und -hunderte im Detail bringen werden. Aber langfristig glaube ich wird der Siegeszug der KI nicht aufzuhalten sein und in harte KI münden. Und auch wenn es für dich Phantasterei ist, so wird meines Erachtens die große kosmische Zukunft den postbiologischen Entitäten und Bewusstseinsformen gehören und nicht den biologischen. Deren Hoffnung wird sein, geduldet zu werden soweit sie nicht selber das Bestreben haben werden, die rein biologische Daseinsform zu transzendieren (Transhumanismus, Cyborgs etc, ja alles hier schon diskutiert

Krieg mit Algorithmen

www.nzz.ch/meinung/krieg-mit-algorithmen-ld.1415600

Angesichts der Logik des Wettrüstens wird es zwangsläufig so sein, dass der militärische Erfolg umso größer sein wird, je mehr Entscheidungsgewalt die KI im Vergleich zum dazu weniger effizienten Mensch haben wird. Wenn es da überhaupt zu nennenswerten Begrenzungen lethaler autonomer Systeme kommen wird, was ich schon bezweifle, dann wird sich in der Praxis kaum jemand daran halten.
Russland und China z.B. werden da allenfalls Lippenbekenntnisse ablegen, aber diese Systeme weiterentwickeln und notfalls auch einsetzen. Weil die NATO Streitkräfte das auch wissen, werden sie nicht umhin können, als das auch zu umgehen. Hält man sich daran, weil event. demokratisch kontrolliert, dann gerät man hoffnungslos ins Hintertreffen. Ein Dilemma.
So klingt der Passus im Artikel am Schluss fast wie der jämmerliche Ruf nach der Quadratur des Kreises.

Angesichts der rasanten Fortschritte, die heute erzielt werden, müssen die Regierungen – unterstützt durch die Wissenschafts- und Technologiegemeinde – dringend handeln und sich auf Grenzen einigen, welche den Menschen als entscheidendes Element erhalten, ohne jedoch den technischen Fortschritt zu behindern oder zu verlangsamen, da dieser offensichtlichen Nutzen bringt.


Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 07 09. 2018 10:50 #41722

Cyborg schrieb: Angesichts der Logik des Wettrüstens wird es zwangsläufig so sein, dass der militärische Erfolg umso größer sein wird, je mehr Entscheidungsgewalt die KI im Vergleich zum dazu weniger effizienten Mensch haben wird. Wenn es da überhaupt zu nennenswerten Begrenzungen lethaler autonomer Systeme kommen wird, was ich schon bezweifle, dann wird sich in der Praxis kaum jemand daran halten.
Russland und China z.B. werden da allenfalls Lippenbekenntnisse ablegen, aber diese Systeme weiterentwickeln und notfalls auch einsetzen. Weil die NATO Streitkräfte das auch wissen, werden sie nicht umhin können, als das auch zu umgehen. Hält man sich daran, weil event. demokratisch kontrolliert, dann gerät man hoffnungslos ins Hintertreffen. Ein Dilemma.


Genau das wird passieren. Im Gegensatz zur Nichtverbreitung von Atomwaffen (Uranaufbereitung mit Zentrifugen und vieles mehr) hinterlässt die Entwicklung von autonomen Kampfsystemen keine kontrollierbaren Spuren.

Daher würde ein Verbot lediglich bewirken, dass solche Systeme nicht in Stellvertreterkriegen / Bürgerkriegen eingesetzt würden. Die wesentlichen Mächte würden sie aber im Verborgenen entwickeln und testen.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 07 09. 2018 17:52 #41741

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
ClausS schreibt:

Genau das wird passieren. Im Gegensatz zur Nichtverbreitung von Atomwaffen (Uranaufbereitung mit Zentrifugen und vieles mehr) hinterlässt die Entwicklung von autonomen Kampfsystemen keine kontrollierbaren Spuren.
Daher würde ein Verbot lediglich bewirken, dass solche Systeme nicht in Stellvertreterkriegen / Bürgerkriegen eingesetzt würden. Die wesentlichen Mächte würden sie aber im Verborgenen entwickeln und testen.

Ja, guter Hinweis. Daran habe ich selber noch gar nicht gedacht. Dann würde also eine Ächtung zumindest den Einsatz dieser Waffensysteme in Stellvertreterkriegen / Bürgerkriegen ausschließen bzw. reduzieren. Das wäre zumindest etwas. Aber jeder Staat, der sich dazu verpflichtet, würde somit seiner eigenen Rüstungsindustrie Exporthindernisse auferlegen. Das wird sicher ein Grund sein, solche Abmachungen möglichst zu umgehen.

Mal generelle Überlegungen:
Was waren die Ursachen in der Vergangenheit für zivile Opfer in Kriegen?
1) Strategische und gezielte Angriffe gegen feindliche Zivilisten, um die Moral des Gegners zu brechen (z.B. Terrorangriffe gegen dt. Städte durch die Allierten im
zweiten WK) bzw. unkontrolliertes und von den Vorgesetzten nicht befohlenen Ausleben des Hass gegen die Zivilisten des Feindes.
2) Fehlende Präzission bei der Bombardierung durch die Luftwaffe bzw. Raketenbeschuss und Artilleriefeuer.
3) Menschliche Fehlentscheidungen bei der Auswahl der Ziele (z.B. ziviles Gebäude wie Schule verwechselt mit milit. Einrichtung)

Es stellt sich ganz nüchtern die Frage, ob durch lethale autonome Waffensysteme nicht sogar bei den Punkten 2 und 3 die Kolateralschäden jeglicher Art geringer wären. Allerdings wird auch die Hemmschwelle für deren Einsatz weiter sinken, wenn eigene Menschenleben immer weniger bei solchen Einsätzen gefährdet werden müssen.
Das ist alles gut zu überlegen und abzuschätzen. Der Krieg wird - Clausewitz gilt noch immer - stets die Fortführung der Politik mit anderen Mitteln sein. Diese Option darf auch nicht von demokratischen Staaten aufgegeben werden. Zum einen, um glaubhaft Abschreckung zu gewährleisten, zum anderen, um sich alle Möglichkeiten offen zu lassen zur Durchsetzung existenzieller Interessen oder der Durchsetzung humanitärer Ziele, wenn es z.B. darum geht, die Greueltaten eines Terrorregimes und seine Bedrohungen für den Weltfrieden mit milit. Mitteln auszuschalten.
Wäre es anders, könnten wir die Bundeswehr bereits morgen auflösen. Sie wird sich aber auch dem techn. Wandel bzw. Fortschritt stellen müssen, weil es eben die ganze Welt macht. Die Logik ist grausam, aber zwingend.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 07 09. 2018 19:25 #41744

Eine Kampf-KI könnte auf der anderen Seite auch Grausamkeiten ermöglichen, die Menschen so nie oder zumindest nicht so einfach ausführen würden. Beispielsweise könnten Kampf-KIs ein ganzes Gebiet menschenleer machen (durch töten oder vertreiben), so dass der Sieger es selbst besiedeln kann, ohne dass es zu einem Guerillakrieg kommt.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 07 09. 2018 20:05 #41746

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
ClausS schreibt

Beispielsweise könnten Kampf-KIs ein ganzes Gebiet menschenleer machen (durch töten oder vertreiben), so dass der Sieger es selbst besiedeln kann, ohne dass es zu einem Guerillakrieg kommt.

Das ist richtig und wäre die grausame Konsequenz aus den 3 Prämissen dessen, was Clauswitz den "absoluten Krieg" bezeichnet hat.
1) Wer sich rücksichtslos aller ihm zur Verfügung stehenden Mittel bedient, muss ein Übergewicht über seinen Gegner bekommen, sofern dieser nicht das Gleiche tut; dadurch steigern sich beide zum Äußersten.
2) Solange man seinen Gegner nicht bezwungen hat, läuft man Gefahr, selbst bezwungen zu werden.
3) Da keiner der Gegner die Entschlossenheit seines Feindes genau einzuschätzen vermag, wird jeder versuchen, so entschlossen wie möglich zu sein.


Allerdings wurden bisher in der Praxis meines Wissen aufgrund unrealistischer Annahmen der 3 Prämissen von Clausewitz, was er ja selber betonte, dies noch nie von einer Kriegspartei restlos konsequent umgesetzt, sondern fand in der einen oder anderen Form seine Begrenzung in dem, was wiederum Clausewitz selber die Voraussetzungen des "wirklichen Krieges" nennt und somit den "absoluten Krieg" begrenzt - zumindest immer bisher.

1) Der Konflikt zweier Parteien müsse gänzlich isoliert ausgetragen werden, ohne Einmischung durch dritte Parteien – dies aber komme nicht vor.
2) Der Konflikt dürfe nur aus einer einzigen Entscheidung bestehen, nämlich der, ob er kriegerisch oder friedlich gelöst wird – er sei aber immer ein Prozess.
3) Mögliche Folgen und Kalkulationen (z. B. die Aussicht auf Frieden und eine Zeit nach dem Krieg) dürften keinen Einfluss auf die Handlungen der Parteien haben – in Wirklichkeit seien sie immer vorauszusetzen.


Bezogen auf dein Beispiel werden somit schon die Punkte 1 und 3 neben humanitären Erwägungen dafür sorgen, dass ein Gebiet nicht vollständig "gesäubert" bzw. rigoros alle Kriegsgefangenen sofort hingerichtet werden.
Auch einer KI müsste diese Logik beizubringen sein. Die Frage ist nur, ob es auch gemacht wird.

Wahrscheinlich tun sich sogar analoge Fragestellungen auf in der Problematik des autonomen Fahrens, nur in anderem Gewande.

Ein guter Überblick über den Stand und Ausblick beim autonomen Fahren:
Was Autos noch lernen müssen, bis sie autonom fahren
Noch gilt es Probleme zu überwinden. Aber es dürfte nur eine Frage der Zeit sein angesichts der gewaltigen Ressourcen, die hingesteckt werden.
Ich muss dabei immer an Folgendes denken:
1909 hielten die Gebrüder Wright anläßlich einer "Flugschau" in Berlin noch einen Transatlantikflug für in alle Zeiten unmöglich, weil die techn Probleme zu groß wären. Im gleichen Jahr schrieb H.G. Wells, der von Detailproblemen nichts wusste, einen Roman über einen Luftkrieg im Jahr 1950, wo deutsche Bomber New York angriffen.
Meine Prognose: In den 2030iger Jahren wird das autonome Fahren ganz selbstverständlich sein.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 07 09. 2018 22:54 #41757

Hallo Cyborg,
dein verlinkter Artikel beschreibt im Wesentlichen genau das, was wir da gerade zu tun versuchen. Autos dahin zu bringen, in ihrer entscheidungsfähigkeit dem menschlichen Gehirn nahezukommen. Und das geht nur, wenn die Fahrzeuge selber lernen und aus dem Wissensschatz dann die richtigen Entscheidungen treffen.
Das technisch abzubilden und zwar redundant, ist eine sehr sportliche Aufgabe für alle Beteiligten.
Wenn man das Ziel aufgefasst hat und eine klare Definition dahintersteht, ist die Chance, es auch technisch hinzubekommen, gar nicht mehr so klein.
VG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 08 09. 2018 08:31 #41772

  • wl01
  • wl01s Avatar
  • Offline
  • Forum Profi
  • Forum Profi
  • Beiträge: 1148
  • Dank erhalten: 137
Das Hauptproblem ist dabei m.A., dass man versucht der KI menschliche Fehler auszutreiben.
Das wird jedoch so nicht klappen. Eine KI wird so viele Sensoren haben, die der Mensch nie haben wird. Sie wird in diesem Bereich damit sogar besser sein als der Mensch.
Sprich die KI wird nie diese Fehler machen, die ein Mensch machen würde, jedoch viele, viele andere, die ein Mensch nie machen würde,

Beispiel für Autonomauto-Fehler:
Die weiße Bordwand eines LKW's für den hellen Morgenhimmel zu halten.
Den Abstand zwischen zwei LKW-Achsen (Vorder- Hinterachse bei einem Sattelschlepper) als "freien" Bereich zu vermuten.
Die nicht sichtbare Straße an einer Bergkuppe für eine fehlende Straße zu halten.
Ein aufgewirbeltes Zeitungspapier für einen Fußgänger zu halten.
Den Schneesturm als lauter kleine Fußgänger anzunehmen.
Den bei Bewegung sich verändernden Winkel eines Überkopfwegweisers als Gefahr anzusehen....

Wenn man nun der KI anlernt "richtig" zu reagieren, wird man außerdem ein Problem mit der QS haben.
Denn es wird dann unterschiedliche Erfahrungswerte geben. Die eine KI wird jenes besser können, die andere dieses. Also wird es nie einen einheitlichen Qualitätsstandard geben.
Und wenn man versucht diese unterschiedlichen Erfahrungswerte zu kombinieren (unterschiedliche Situationen, unterschiedliche Marken, unterschiedliche Fahrzeuge, unterschiedliche Ausstattung), wird es Probleme bei den Schnittstellen geben. Die eine KI reagiert bei der einen Situation so, die andere so, wie soll hier eine Überschneidungsmenge entstehen? Also widersprüchliche Befehle ergeben in einer KI Chaos....

MfG
WL01
MfG
WL01
Dieses Thema wurde gesperrt.

Cyborg 08 09. 2018 08:35 #41773

Die meisten haben die Möglichkeiten einer KI noch gar nicht erahnt . Und die Gefahr geht anfänglich von dem Menschen hinter der KI aus .
Autonome Waffen können von einer feindlichen KI übernomen werden , genauso die eigene KI ohne bemerkt zu werden .
Sie kann sich ein Netzwerk aus menschlichen Kollaborateure aufbauen durch Manipulation .
Sie kann Länder ohne Waffeneinsatz vernichten durch Kontrolle aller IT Systeme .
Dieses Thema wurde gesperrt.

Cyborg 08 09. 2018 08:46 #41774

  • wl01
  • wl01s Avatar
  • Offline
  • Forum Profi
  • Forum Profi
  • Beiträge: 1148
  • Dank erhalten: 137

Cyborg schrieb: 1) Der Konflikt zweier Parteien müsse gänzlich isoliert ausgetragen werden, ohne Einmischung durch dritte Parteien – dies aber komme nicht vor.
2) Der Konflikt dürfe nur aus einer einzigen Entscheidung bestehen, nämlich der, ob er kriegerisch oder friedlich gelöst wird – er sei aber immer ein Prozess.
3) Mögliche Folgen und Kalkulationen (z. B. die Aussicht auf Frieden und eine Zeit nach dem Krieg) dürften keinen Einfluss auf die Handlungen der Parteien haben – in Wirklichkeit seien sie immer vorauszusetzen.

Also wenn schon ein Mensch bei einer asymmetrischen Kriegsführung scheitert, wie soll hier eine KI zurechtkommen.
Also dem berühmten Einsatz von Zivilisten also z.B. Kinder und Frauen im Krieg.
Entweder die KI schießt wirklich alles nieder was sich bewegt (grausame Vorstellung, aber im Sinne eines absoluten Krieg gemäß Clauswitz), oder sie scheitert kläglich. Die Unterscheidung zwischen gefährlich und nichtgefährlich ist für eine KI unmöglich, weil es einfach zu viele Differenzierungen gibt.

Beipiel:
Kind (ungefährlich) --> liegt (ungefährlich) --> ist mit Decke zugedeckt (ungefährlich) --> zieht aus der Decke einen Spazierstock hervor (ungefährlich/gefährlich) --> legt auf die KI an (gefährlich) --> Spielzeug oder getarntes Gewehr,..... schießen oder nicht schießen?

MfG
WL01
MfG
WL01
Dieses Thema wurde gesperrt.

Cyborg 08 09. 2018 21:04 #41810

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
wl01,
ich glaube, du unterschätzt die Möglichkeiten der KI, also der künstlichen neuronalen Netze (KNN), die es jetzt schon gibt u. vor allem, die noch kommen werden.
Bei dir hört sich das alles so an, als müssten die Probleme, die du schilderst mit ja/nein-, entweder/oder- bwz wenn/dann- Befehlen etc nach herkömmlicher Programmierung gelöst werden. Natürlich würde das so nicht gehen.
Erst KNN hat z.B. den Erfolg bei Go ermöglicht. Das wesentlich einfachere Schach ließ sich noch nur mit reiner Rechnerpower und klassicher Programmierung lösen.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 08 09. 2018 22:39 #41815

Zum Link über autonomes Fahren: Die Rechenleistung braucht viel Energie. Wenn Verkehrssituation, Verkehrsschilder, Gefahrensignale (z. B. Ball) und Wetter, Straßenzustand alle erfasst und verarbeitet werden sollen und das ohne Zeitverzögerung: Dann braucht das enorm viel Energie. Man muss sich wohl entscheiden zwischen autonomen Fahren und Umweltschutz.
Überhaupt ist der MIV dabei, sich radikal zu verändern. E-Bikes nehmen zu, werden auch zu Distanzen bis zu 30 km zum Arbeitsplatz benutzt. Autonomes Fahren ist beim Umbau der Mobilität nur ein Faktor von vielem. Es mag sein, dass das eine Rolle spielen wird, aber mit Sicherheit wird Mobilität auch durch ganz andere Dinge verändert werden. Zur Emissionsneutralität kann sie jedenfalls nicht viel beitragen. Und wenn das Zeitalter des Autowahns vorbei sein wird, dann ist sie überflüssig wie ein Kropf.
Im Moment ist KI beim Autofahren noch weit hinter dem Menschen. Aber da stimme ich Cyborg zu, dass sich das in überschaubarer Zeit ändern kann. Bei GO hat man auch gesagt, dass das nicht geht. Ich denke auch, dass KNN nicht das ende der Fahnenstange ist. Wenn eine KNN (oder mehrere vernetzte) auf eine Vielzahl von Lernfeldern zurückblicken kann, dann kann sie vielleicht auf einer Metaebene noch besser lernen, wie man lernt und wie man die gelernten Felder verknüpft (zB Blickkontakt zu anderen Verkehrsteilnehmern richtig deuten und selber richtige Signale geben).
Doch diese ganzen enormen Rechenleistungen in Sekundenbruchteilen, die ja äußerst zuverlässig sein sollen (das ist ja der Sinn der Übung, man muss da den Menschen deutlich übertreffen und nicht nur einholen, wenn sich das lohnen soll), dann wird der Energieverbrauch auch groß sein. Zumal da ja mindestens zwei KI’s parallel rechnen, damit eine sofort übernehmen kann, falls die andere ausfällt.
Und wenn ich Terrorist wäre, würde ich mich über die vielen Möglichkeiten freuen, die autonomes Fahren für Anschläge bietet.
Von der Entsorgung des ganzen Elektronikschrotts ganz zu schweigen.
Unterm Strich kann ich keine Vorteile darin sehen.

Zu KI und Krieg: Die Möglichkeiten von KI zu Töten sollte man auch nicht unterschätzen. Eine neue Aufrüstung besteht bevor, wobei es mit irgendwelchen Terroristen keine Abrüstungsgespräche geben wird, also werden wir die letzten Ressourcen in diese Aufrüstungsspirale stecken.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Folgende Benutzer bedankten sich: Philzer
Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 08:19 #41828

  • wl01
  • wl01s Avatar
  • Offline
  • Forum Profi
  • Forum Profi
  • Beiträge: 1148
  • Dank erhalten: 137

Cyborg schrieb: wl01,
ich glaube, du unterschätzt die Möglichkeiten der KI, also der künstlichen neuronalen Netze (KNN), die es jetzt schon gibt u. vor allem, die noch kommen werden.
Bei dir hört sich das alles so an, als müssten die Probleme, die du schilderst mit ja/nein-, entweder/oder- bwz wenn/dann- Befehlen etc nach herkömmlicher Programmierung gelöst werden. Natürlich würde das so nicht gehen.
Erst KNN hat z.B. den Erfolg bei Go ermöglicht. Das wesentlich einfachere Schach ließ sich noch nur mit reiner Rechnerpower und klassicher Programmierung lösen.

Ich glaube Du überschätzt die Möglichkeiten der KI.
Auch in normalen Programmen wird zu meist nicht mehr mit Wenn/Dann-Befehlen gearbeitet, sondern mit "Select Case"-Befehlen. Womit keine zeitaufwendigen ja/nein-Schleifen nötig sind und mehrere Entscheidungen einer Layerebene auf einmal erfolgen.
Und genau diese Vorgehensweise habe ich in meinem Bespiel genannt. Sprich die von mir genannte Selektion erfolgt auf einer Entscheidungsebene (mit unterschiedlicher Wertigkeit).

Und nichts anderes machen diese KNN's. Und dass jeder Entscheidungslayer natürlich zusätzliche Eigenschaften besitzt, was eben das Grundelement der objektorientierten Programmierung ist, ist heute schon überall in der normalen Programmierung möglich. Und diese zusätzlichen Eigenschaften werden bei den KNN's eben "Gewichtung" oder "Schwellenwert" genannt.
Das einzige was einen Vorteil der KNN's darstellt ist, dass neue Casefälle (Entscheidungsknoten) und die notwendigen Verknüpfungen selbstständig eingefügt werden können und bei Deadlinks (Versuch und Irrtum), diese wieder zurückgenommen und auch rekurrent eingesetzt werden können (sog. Rekurrente Netze, bzw. bidirektionale Umwandlung). Aber genau diese flexiblen Umstellungs-Systeme kosten viel Rechenpower und Zeit. Deshalb geht man heute dazu über genau diese als "richtig" angesehenen Entscheidungsknoten und Verknüpfungen nicht mehr softwaremäßig zu bilden, sondern als Hardware abzubilden, was aber wieder die Flexibilität zerstört. (soweit ich verstanden habe, werden diese Vorgänge im menschlichen Gehirn in der Nacht "im Traum" abgearbeitet und fixiert)

MfG
WL01
Folgende Benutzer bedankten sich: Philzer
MfG
WL01
Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 20:01 #41871

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
Wl01 zu #41828,
ich zolle dir Respekt, du hast ein gutes Detailwissen.
Aber dennoch erinnert mich deine Stellungnahme an, ich zitiere mich selber:

1909 hielten die Gebrüder Wright anläßlich einer "Flugschau" in Berlin noch einen Transatlantikflug für in alle Zeiten unmöglich, weil die techn Probleme zu groß wären. Im gleichen Jahr schrieb H.G. Wells, der von Detailproblemen nichts wusste, einen Roman über einen Luftkrieg im Jahr 1950, wo deutsche Bomber New York angriffen.


Ich glaube, du unterschätzt einfach die Wucht des exponentiellen Fortschritts auf diesem Gebiet und damit auch die Zeitdimensionen, in denen sich künftig Veränderungen und eben Fortschritte ergeben werden.
Meine Überlegung ist im Grunde einfach: Wenn die Natur durch Mutation und Selektion, also Zufall und Notwendigkeit, so etwas wie das menschliche Gehirn hervorbrachte, dann wird ein Analogon dazu, also harte KI bzw. eine postbiologische Entität, in unvergleichbar kürzerer Zeit durch zielgerichtetes Vorgehen und Einsatz aller dazu verfügbaren intellektuellen und technischen Ressourcen auch künstlich herzustellen sein.
Dabei ist m.E. nicht das Substrat entscheidend, auf dem Bewusstsein „läuft“ oder sich eben eine Entität realisiert bzw. konkretisiert, sondern die Strukturen und ihre sensomotorische Vernetzung mit der Welt.
Mir geht es um autonomes Fahren nur am Rande. Mich interessiert im Grunde nur die Frage, wann auf diesem Planeten harte KI, also eine postbiologische Entität das Licht der Welt erblicken wird.
Ich weiß, das hört sich jetzt alles sehr pauschal an und wurde auch schon x-mal von mir so dargestellt. Sollten dich detailliertere Argumente interessieren, die ich anführe, warum es zu harter KI kommen wird, dann verweise ich auf den Beitrag #37635 von mir hier im Thread. Dort findest du weitere Links zu den Argumenten, deren Hauptquelle Nick Bostroms Buch „Superintelligenz – Szenarien einer künftigen Revolution“ ist.

Martin-O zur Einschätzung Energieverbrauch beim autonomen Verfahren #41815:
Da liegst du aber so was von daneben, wie m.E. eben oft beim KI Thema. :cheer:
Während wir uns aber meistens in Bezug auf die Möglichkeit einer künftigen harten KI in Spekulationen ergehen und keiner letztlich beweisen kann, dass er richtig liegt mit seiner Einschätzung, liegt hier der Fall konkreter und es ist ein Leichtes zu zeigen, dass du irrst. Natürlich wird künftig die Elektronik mehr verbrauchen, aber das ist doch nichts im Vergleich zu den Energien, die das mechanische Bewegen eines Fahrzeugs verursachen.
Warum hast du heute ein Auto, das größtenteils rumsteht und fährst nicht alles mit dem Taxi? Weil das Taxi wegen dem Fahrer zu teuer ist! Künftig wird das autonome Taxi aber so billig sein, dass sich viele selber kein Auto mehr zulegen werden. Die Anzahl der Autos werden drastisch weniger, dafür aber viel mehr und – das ist das Entscheidende – viel effizienter bewegt werden (weniger Stau, weniger Spritverbrauch, weniger Umweltbelastung etc). Damit müssen unter dem Strich als Zusatzeffekt auch viel weniger Autos produziert und dann wieder verschrottet werden, was die Energiebilanz und gesamten Ressourcenverbrauch erst recht verbessern wird.
Und vor allem und am wichtigsten: Die Unfallzahlen und Unfalltoten werden stark zurückgehen, was ja noch wichtiger ist als alle Energieeinsparung, weil damit viel Leid verbunden ist.

Die Links erklären es noch viel besser:

www.verkehrsrundschau.de/nachrichten/oek...-fahren-2139646.html

www.handelsblatt.com/auto/test-technik/s...lciDeafUAifezD5P-ap2

www.focus.de/auto/news/studie-zum-autono...rden_id_9277949.html

www.spiegel.de/wirtschaft/unternehmen/au...paren-a-1218525.html

www.spiegel.de/spiegelwissen/co2-emissio...autos-a-1000441.html

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 20:38 #41876

Cyborg schrieb: Warum hast du heute ein Auto, das größtenteils rumsteht und fährst nicht alles mit dem Taxi? Weil das Taxi wegen dem Fahrer zu teuer ist! Künftig wird das autonome Taxi aber so billig sein, dass sich viele selber kein Auto mehr zulegen werden. Die Anzahl der Autos werden drastisch weniger, dafür aber viel mehr und – das ist das Entscheidende – viel effizienter bewegt werden (weniger Stau, weniger Spritverbrauch, weniger Umweltbelastung etc). Damit müssen unter dem Strich als Zusatzeffekt auch viel weniger Autos produziert und dann wieder verschrottet werden, was die Energiebilanz und gesamten Ressourcenverbrauch erst recht verbessern wird.
Und vor allem und am wichtigsten: Die Unfallzahlen und Unfalltoten werden stark zurückgehen, was ja noch wichtiger ist als alle Energieeinsparung, weil damit viel Leid verbunden ist.


Zum einen überschätzt man den zahlenmäßigen Effekt dahingehend, dass im Berufsverkehr sehr viele Leute gleichzeitig ein Auto brauchen.

Wenn die selben Fahrten durchgeführt werden wie bisher, dann sehe ich erstmal keine Energieeinsparung, da ja auch ein Auto erstmal von irgendwo her kommen muss.

Was die Sicherheit betrifft, mag das im Normalbetrieb zutreffen. Diese selbstfahrenden Autos müssen aber eine Schnittstelle haben, da sie mit Updates versorgt werden müssen. Somit gibt es Angriffsflächen für hochspezialisierte Angreifer (beispielsweise fremde Staaten), die damit Schaden mit hunderttausenden Toten anrichten könnten.

Letztlich frage ich mich, was für Arbeitsplätze wir dann zukünftig haben werden. Denn dieses Szenarion wird sehr viele Arbeitsplätze kosten (Fahrer, Automobilindustrie mit Zulieferern). Ob diese durch andere alternative Arbeitsplätze aufgefangen werden können, wird spannend.

Mein persönliches Fazit: Das Szenario wird kommen, aber ich freue mich darüber nicht.

Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Nicht extra gekennzeichnete Beiträge sind normale private Beiträge. Sie sollten genauso diskutiert und kritisiert werden wie alle anderen Beiträge auch.
Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 20:51 #41879

ClausS schrieb:
Diese selbstfahrenden Autos müssen aber eine Schnittstelle haben, da sie mit Updates versorgt werden müssen.

Ich würde mal schätzen, dass pro Tag nur in Deutschland 1.000 x aufgrund von Baustellen der Verkehr geändert wird. Angefangen von Engstellen bis Umleitungen, Zusatz-Ampeln, Einbahnumlegungen udgl. Folglich müsste jedes Auto täglich 1.000 x upgedatet werden.

Oder erfolgt das autonome Fahren ohne Navi? Ich weiß das nicht?
.

Ohne etwas wäre nicht einmal nichts

Ohne etwas wäre nicht einmal nichts

Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 22:26 #41888

Badhofer, da kann ich dir helfen. Das autonome Fahren benutzt das Navi nicht zur örtlichen Orientierung. Das Navi, oder die GPS Daten werden nur verwendet, um den Ort, an dem man sich befindet zu plausibilisieren.
Die Daten, die man benötigt, um sicher durch die örtlichen Gegebenheiten zu steuern, werden von an Bord befindlichen Sensoren ermittelt.
Das Schlimme ist dabei, dass ein Fahrzeug einen durchgezogenen Mittelstreifen als nicht überfahren dürfend definiert. Befindet sich vor dir eine Baustelle mit einer Ampel, die grün anzeigt und gleichzeitig links neben dir so ein durchgezogener Streifen, bleibt das Fahrzeug stehen, obwohl es ja fahren sollte.
Wir als Fahrer würden losfahren.
Die Kunst besteht also darin, dem Auto beizubringen, dass es das Signal grün für wichtiger und entscheidender betrachtet als den durchgezogenen Streifen.
Und da gibts jetzt viele viele Beispiele, die ein Autonomes Fahrzeug vor ähnliche Probleme stellt.
Deshalb müssen diese Fahrzeuge selbständig lernen um relevante Informationen von nichtrelevanten unterscheiden zu können.
KI eben, sehen, beurteilen und entscheiden, nur technisch umgesetzt.
Biologisch lange geübt, technisch wird das noch viel Zeit brauchen.
Man denke auch an die Redundanz, also an die mehrfache Abgesicherheit der Systeme.
Fällt eins aus, oder hat ne Störung, muss ein gleichwertiges sofort einspringen und eventuell ein drittes.
Prinzipiell gar nicht so schwer zu verstehen, aber die Umsetzung in Technik, die hats in sich.
LG
Thomas
Dieses Thema wurde gesperrt.

Cyborg 09 09. 2018 22:42 #41891

Noch ein Nachtrag:
Im Vergleich mit uns biologischen Sytemen stellen wir fest, dass unser Organismus sich ständig selbst repariert. Ist er von Vieren befallen, muss er ins Bett und den Störfaktor ausschwitzen Denn der ist zu mächtig, um gleich repariert werden zu können
Überträgt man dieses Prinzip auf die KI in Fahrzeugen, sollte man diese in die Lage versetzen, leichte Störungen selbstständig zu beheben.
Andernfalls müssten sie ja ständig in die Werkstatt, sprich zum Doktor, um wieder fahren zu können.
Allein daran kann man schon erkennen, wie komplex das Thema KI im Fahrzeug ist.
Dieses Thema wurde gesperrt.

Cyborg 10 09. 2018 08:16 #41897

.
@Thomas
Also, du meinst, wenn eine KI verschiedene Entscheidungs-Möglichkeiten vorfindet, muss sie Prioritäten setzen. Wenn das 2 oder mehrere Fahrzeuge gleichzeitig betrifft, weiß die eine KI nicht, welche Priorität die anderen setzen werden. Unter Labor-Bedingungen wäre das wesentlich einfacher. Der Straßenverkehr ist aber kein Labor. Was meines Erachtens ein sehr großes Problem ist, dass keine Software immer gleich läuft. Schon wenn ich meinen PC hochfahre, kommt es vor, dass er manchmal schneller hochfährt und manchmal langsamer. Was geht da vor sich? Es läuft doch immer dasselbe ab?
.

Ohne etwas wäre nicht einmal nichts

Ohne etwas wäre nicht einmal nichts

Dieses Thema wurde gesperrt.

Cyborg 11 09. 2018 13:10 #41969

@ Cyborgv #41871
Alles ist besser als die Praxis des heutigen Autowahns. Natürlich kann autonomes Fahren in Teilbereichen Energie einsparen.
So werden in Deinen Links zB die Lastwagenkolonnen genannt, die dicht hintereinander fahren könnten und so weniger Luftreibung haben. Nun, dieses System gibt es längst ohne KI, es ist der Schienenverkehr.
Gerade erschien in meiner Stadt ein Buch, das über eine geplante Schienenstrecke ging, die vor ca. 100 Jahren geplant war, aber durch Krieg und Inflationen und eben auch den LKW-Verkehr verhindert wurde. Der Autowahn hat lange Zeit unsere Infrastruktur geprägt, es ist schwer, davon weg zu kommen. Aber es ist Irrsinn, den Autowahn mittles KI zu perpetuieren. Wir brauchen eine radikalere Verkehrswende.

Es gibt zwar Analogien zwischen Menschen und KI, aber darauf kann man genauso wenig Schlussfolgerungen aufbauen wie zwischen der Analogie einer Stubenfliege und einem Konzertflügel.
Die Evolution setzt Leben voraus, Wahrnehmung geschieht von Anfang an. Ein Merkmal von Leben ist, dass da jemand da ist, der wahrnehmen kann. Bei einem Thermostat wie bei KI ist aber keine ganzheitliche Entität da, die wahrnehmen könnte. Warum am Schluss der von Menschen gemachten Entwicklung das steht, was bei der Evolution ganz am Anfang steht: Das leuchtet nicht ein. Zumal das eine emergente Sache ist, zu der überhaupt keine vernünftigen Prognosen möglich sind.
Nur wenn man das Geheimnis des Lebens und des Wahrnehmens, auf dem das Bewusstsein beruht, ignoriert, kann man meinen, harte KI müsste kommen.

Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Wer meint, er habe etwas erkannt, der weiß noch nicht, wie man erkennen soll.
1. Brief des Paulus an die Korinther 8, 2
Dieses Thema wurde gesperrt.

Cyborg 11 09. 2018 21:46 #41993

Badhofer,
du kommst der Problemstellung sehr nahe. Nicht nur, dass dein Fahrzeug für sich und seine Sicherheit sorgen muss, das müssen die anderen Fahrzeuge auch alle. Da man davon ausgehen muss, dass die Entscheidungsprozesse in den Fahrzeugen sich von Herdteller zu Hersteller unterscheiden, kann ein autonom fahrendes Fahrzeug nie sicher sein, wie sich ein anderes solches Fahrzeug verhalten wird, es sei denn, sie tauschen sich aus. Sie müssen sich also unterhalten. Man nennt das Car to Car Communication oder auch Car to X Communication, denn die Fahrzeuge sollen auch mit Tankstellen oder Parkhäusern und den Ampeln kommunizieren können.
Wenn dein autonomes Fahrzeug weiß, wohin du willst, wird es für dich also die beste Lösung herausarbeiten. Soweit die Vision.
Physikalisch technisch eine unglaublich komplexe Aufgabe. Allein der elektromagnetische Wellensalat birgt ungeahnte Gefahren und Störquellen.
Deshalb unterscheiden wir die Herausforderungen nach ihrem Komplexitätsgrad.
Um das zu verdeutlichen will ich nur soviel bemerken, dass es einfacher ist, sich auf einer Autobahn zu bewegen als in einer Stadt.
Wenn man sich vorstellt, dass KI Fahrzeuge mit unserer menschlichen I gleichziehen müssen, dann weiß man, welcher Weg da vor uns liegt.
Vorausetzend, dass Mobilität auch in Zukunft notwendig ist.
VG
Dieses Thema wurde gesperrt.

Cyborg 12 09. 2018 06:53 #41999

  • wl01
  • wl01s Avatar
  • Offline
  • Forum Profi
  • Forum Profi
  • Beiträge: 1148
  • Dank erhalten: 137

Cyborg schrieb: Wl01 zu #41828,
ich zolle dir Respekt, du hast ein gutes Detailwissen.
Aber dennoch erinnert mich deine Stellungnahme an, ich zitiere mich selber:

1909 hielten die Gebrüder Wright anläßlich einer "Flugschau" in Berlin noch einen Transatlantikflug für in alle Zeiten unmöglich, weil die techn Probleme zu groß wären. Im gleichen Jahr schrieb H.G. Wells, der von Detailproblemen nichts wusste, einen Roman über einen Luftkrieg im Jahr 1950, wo deutsche Bomber New York angriffen.


Ich glaube, du unterschätzt einfach die Wucht des exponentiellen Fortschritts auf diesem Gebiet und damit auch die Zeitdimensionen, in denen sich künftig Veränderungen und eben Fortschritte ergeben werden.
Meine Überlegung ist im Grunde einfach: Wenn die Natur durch Mutation und Selektion, also Zufall und Notwendigkeit, so etwas wie das menschliche Gehirn hervorbrachte, dann wird ein Analogon dazu, also harte KI bzw. eine postbiologische Entität, in unvergleichbar kürzerer Zeit durch zielgerichtetes Vorgehen und Einsatz aller dazu verfügbaren intellektuellen und technischen Ressourcen auch künstlich herzustellen sein.

Also ich unterschätze nicht die technische Entwicklung der nächsten Jahrzehnte. Ich bin überzeugt, dass das Moorsche Gesetz nach wie vor gilt.
Das Problem ist somit nicht die Leistungsfähigkeit der Mikroprozessoren. Die werden sicherlich schneller und kleiner und damit billiger. Jedoch ist es ein grundsätzlich konzeptionelles Problem.
Die technische Entwicklung hat eben nichts mit dem von mir aufgezeichneten prinzipiellen Logikgatter und Entscheidungsknoten zu tun. Die werden sich nicht ändern. Sprich die KI muss sehr wohl immer noch die Entscheidungsebenen also die vorhandenen CaseOprton durcharbeiten. Aber natürlich wird es schneller gehen.
Verbesserung gibt es m.A. vielleicht im Bereich der fixen/nichtfixen hard/softwaremäßigen Entscheidungsknoten und Verknüpfungen. Ich könnte mir da vorstellen, dass die Entscheidung welche Strukturen man da anwendet über ein Art EEPROM oder Flash-Speicher gelöst werden kann (wird derzeit im Bereich des BIOS von Computern verwendet). Also die aufwändigen Neuverknüpfungen zwar Hardwaremäßig zu implementieren, diese jedoch in der Nacht (wie eben beim menschlichen Gehirn üblich) neu in den Flash-Speicher zu brennen und damit upzudaten. Das Problem derzeit ist nur, dass diese Flash-Speicher nur 10,000 bis 100.000 Zyklen aushalten bevor sie komplett ausgetauscht werden müssen.

Ein weiteres Problem ist die schon öfter zitierte Wertigkeit bzw Priorisierung von gewissen Entscheidungsbäumen (von mir "Gewichtung" oder "Schwellenwert" genannt). Im Grunde sind es programmtechnisch lediglich "Eigenschaften" einer Variablen.
Man kann natürlich je nach Erfahrungswert diesen Schwellenwert hinauf oder hinuntersetzen. Damit kann sich aber die komplette Entscheidungskette ändern.

Aus Unfallberichten mit autonomen Fahrzeugen weiß ich, dass man aufgrund der Erkenntnis mit herumfliegenden Zeitungspapier (Die KI sah es als Bedrohung und machte eine Vollbremsung) man die Priorisierung herabsetzte. Was letztlich dazu führte, dass ein unbeleuchteter Radfahrer, der die Straße querte, zwar erkannt, aber als unbedeutender Faktor angesehen wurde. Oder das Beispiel einer nicht vorhandenen Straße (die gerade über eine Bergkuppe führte) durch Herabsetzung der Wertigkeit zu einem Unfall in einer Baugrube führte.

Ein weiteres bereits angesprochenes Problem ist die für alle KI gleich gelten müssende Qualitätssicherung.
Wenn das eine Auto diese "Erfahrung" gemacht hat und das andere Auto jene, wird es zu unterschiedliche Wertigkeiten bei unterschiedlichen Autos kommen. Jedes Auto wäre somit ein "induviduelles Wesen", das unterschiedliche Sichtweisen hätte.

MfG
WL01
MfG
WL01
Dieses Thema wurde gesperrt.

Cyborg 12 09. 2018 18:23 #42022

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
Etwas sarkastisch (Sarkasmus bedeutet in etwa Zerfleischung) ließe sich sagen:
Eine gute Nachricht: Vollbeschäftigung dank Bullshit-Jobs

www.nzz.ch/meinung/vollbeschaeftigung-da...shit-jobs-ld.1417546

Die gesellschaftlich wirklich wichtigen Dinge werden künftig die Maschinen erledigen. Bleiben vielleicht noch die sozialen Berufe übrig. Da wird es aber dann wohl ab den 30ziger Jahren auch so sein, dass sich betuchte Senioren in den privaten Altersheimen noch menschliches Pflegepersonal wird leisten können, während der durchschnittliche Senior von effizienten und kostengünstigeren Pflegerobotern betreut werden wird.

Die KI-Forscher schauen sich auch viel von der Natur ab, wenn es um das Entwickeln autonomer Systeme und Roboter geht.
Ameisen dienen z.B. als Vorbilder. Bei ihnen hätte wohl ein gewisser Cyril Northcote Parkinson wenig Möglichkeiten gehabt, seine Gesetze zu formulieren, heute wie damals vor ca. 100 Jahren sich stets bestätigen.

www.nzz.ch/wissenschaft/zu-viele-ameisen...tunnelbau-ld.1412079

@wl01:
Erneut danke für die umfangreiche Einschätzung. Ganz interessant, ich habe einen Freund, der berufsbedingt sich auch viel mit dem autonomen Fahren befasst. Die infoffizielle Einschätzung seiner Firma (Autobranche): Bis 2030 werden alle heutigen noch ungelösten Probleme gelöst sein.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 12 09. 2018 21:59 #42029

Wl01,
das Auto als individuelles Wesen. Du sagst es. Das eine Auto sagt, ich bin ich und du bist du. Das andere sagt das Gleiche. Alle Autos sagen von sich das Gleiche. Es entsteht unter den Autos ein Erkenntniswettbewerb oder eine Art Intelligenzolympiade. Nach dem Motto, wer weiß am meisten, wer reagiert am richtigsten und wer fährt am umsichtigsten und bringt seine Passagiere am sichersten ans Ziel.
Die Besseren bleiben am Leben und die Schlechteren werden aussortiert.
Schönes Beispiel für die Mächtigkeit des Evolutionsprinzips, von dem ja schon öfter die Rede war.

Thomas
Dieses Thema wurde gesperrt.

Cyborg 12 09. 2018 23:04 #42034

Hallo Cyborg,
du schreibst:

Erneut danke für die umfangreiche Einschätzung. Ganz interessant, ich habe einen Freund, der berufsbedingt sich auch viel mit dem autonomen Fahren befasst. Die infoffizielle Einschätzung seiner Firma (Autobranche): Bis 2030 werden alle heutigen noch ungelösten Probleme gelöst sein.

Man könnte flapsig sagen: Was sollen sie sonst sagen? - Sie leben ja davon. Und außerdem ist es sicher auch für die psychische Prophylaxe des Einzelnen nicht so falsch davon auszugehen, dass man nicht nur so sinnloses Zeugs macht.
Wir hatten das Thema ja schon fast zum Erbrechen: Ein Auto wird wohl auch nicht die Bedingungen erfüllen können für eine harte KI im Sinne von Selbstbewusstsein und Verantwortung und...
Du hast in einem Vorpost gesagt, dass du sicher davon ausgehst, dass konzertierte Aktionen von "Begabten" wohl die Geschwindigkeit der wild evolutionär herummachenden Natur deutlich übertreffen wird. Das kann sein, könnte aber einleuchtender erscheinen, als es ist.
Die Evolution macht einfach eine unbegrenzte Anzahl von "Versuchen". Sie schert sich nicht darum, an wie vielen Stellen möglicherweise weitere Versuche stattfinden. Ihr ist es auch egal, wenn Versuche ad libitum scheitern. Sie hat ja noch genügend Versuche, die nicht auf dem Holzweg stattfinden.
Die Kooperation von Begabten ist in dem jeweiligen Versuch sicher deutlich schneller tiefer. Aus Ressourcenüberlegungen und Abstimmungen kann aber nicht jeder der Begabten vor sich hin versuchen. Holzwege würden zu immensen Aufwänden führen, ja selbst das Erkennen und Anerkennen eines solchen Holzweges, wären bereits ein erheblicher Aufwand.
Auch das Mooresche Gesetz würde hier nicht sicher weiterhelfen. Das Springen in selbstbewusste KI verlangt sicher etwas anderes als das Mooresche Gesetz. Mal ein Beispiel: Ich kann in einem hamsterradähnlichem Gebilde herumlaufen und mir vorstellen, dass ich Fähigkeiten entwickele, die mich in die Lage versetzen, dass die Umfangsgeschwindigkeit des Rades 0,6 c ergibt. Dann bin ich aber immer noch in einem Hamsterrad.
Du hast in früheren Posts immer wieder darauf hingewiesen, dass der Sprung in die bewusste Ki irgendwie, vermutlich unbemerkt, geschehen würde. Dann macht es doch an sich gar keinen Sinn zielgerichtet zu arbeiten.



Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 14:17 #42049

Cyborg schrieb: Ganz interessant, ich habe einen Freund, der berufsbedingt sich auch viel mit dem autonomen Fahren befasst. Die infoffizielle Einschätzung seiner Firma (Autobranche): Bis 2030 werden alle heutigen noch ungelösten Probleme gelöst sein.


Gelächter ............... das wird nicht passieren, niemals!

Vorausgesetzt, es gäbe solche Autos, wer sollte die kaufen? Um in Zukunft damit NICHT selber fahren zu dürfen? Welch ein Schwachsinn.

Was kommen wird, das sind nur sogenannte "selbstfahrende Autos", die auf bestimmten Streckenabschnitten, zumeist auf Autobahnen, teilweise autonom fahren dürfen, aber IMMER mit einem verantwortlichen und im Besitz eines Führerscheines Fahrers an Bord, den man bei Unfällen dann zur Verantwortung ziehen kann, wie bisher auch.

Das allein autonome Auto, also ohne jeglichen Fahrer an Bord, wird nie kommen.

Begründungen:

1. Es gibt keine Gesetze dafür. Nun könnte man meinen, das wäre ja kein Problem, dann macht man eben welche. Nur, wer soll dann am Ende letztlich die Verantwortung dafür bekommen? Es ist davon auszugehen, dass es auch weiterhin zu bedauerlichen Unfällen kommen wird, weil Systeme versagt haben oder warum auch immer, wer soll in den Fällen zahlen und den Schaden wieder gut machen? Der Autohersteller? Die Hersteller der Komponenten, die zum Unfall geführt haben? Der Fahrzeughalter? (wenn es den dann überhaupt noch gibt) Die Insassen? Oder die Versichertengemeinschaft? Wer versichert dann überhaupt zu welchem Kurs diese Autos? Alle bisherigen Tarifstrukturen richten sich nach dem Fahrer/Halter, den gibts ja dann nicht mehr.

2. Ein solches Auto wäre unbezahlbar teuer, denn alle Komponenten müssten redundant, also mehrfach vorhanden sein und aus allerbesten Materialien bestehen, die gegenwärtig verbauten Massenkomponenten, die nur Bruchteile von Euros kosten, weil sie billig sein müssen, damit die Industrie diese auch gewinnbringend verkaufen kann, werden den Ansprüchen nicht mehr genügen, es geht hier ja um Menschenleben! Es sind auch jahrelange Prüfungen von unabhängiger Seite notwendig, es müssen ja nicht nur einzelne Komponenten geprüft werden, sondern das einwandfreie Zusammenspiel muss garantiert werden, unter allen Bedingungen. Der Sicherheitsstandard müsste um Größenordnungen höher sein, als im jetzigen Luftverkehr, denn der wird immer noch von Menschen kontrolliert.
Ein solches Auto würde mehrere Millionen Euro kosten, auch bei einer Massenproduktion, weil jede Komponente individuell geprüft und zertifiziert werden müsste, ansonsten würde der Hersteller bei Unfällen zur Regulierung herangezogen werden.

3. Das psychologische Moment.

Seit mehr als 30 Jahren gibt es die Technik, Flugzeuge vollkommen automatisch starten, fliegen und landen zu lassen, warum gibt es da aber immer noch mindestens 2 hochbezahlte Piloten drin? Weil die Menschen sich nicht nur auf Technik verlassen wollen, sie vertrauen lieber auf menschliche Piloten mit all ihren Fehlern und Schwächen, niemand würde in ein Flugzeug steigen und mitfliegen, wenn keine Piloten an Bord sind.

Ähnlich bei der Eisenbahn, da ist es ja noch einfacher, den Lokführer durch ein System zu ersetzen, macht aber niemand. Warum wohl?

4. Warum?

Warum sollte man vollkommen selbstfahrende Autos haben wollen? Wenn ich nicht selbst steuern möchte, lasse ich mir ein Taxi kommen oder steige in den Bus.
Wer wäre die Käuferzielgruppe? Über die 5% Behinderte hinausgehend, die so etwas sehr gut gebrauchen könnten. Immer im Blick haben, dass so ein autonomes Auto ziemlich teuer wäre, dafür kann man sich auch einen menschlichen Chauffeur leisten oder sogar mehrere.


Das mit dem selbstfahrenden Auto ist nur ein Hype, weiter nichts. Es werden daraus hier und da ein paar Systeme serienreif werden, die man erheblich verbessert hat gegenüber heute, aber das autonome Auto wird es nie geben, nie.


Ebenso wenig wie eine vom Menschen unabhängige "harte KI".


Grüße
Udo

Das Verzichtbare ist nutzlos. J.F. Hingeklammert
Das Verzichtbare ist nutzlos. J.F. Hingeklammert
Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 16:59 #42064

  • stm
  • stms Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 883
  • Dank erhalten: 173
Durch die inflationäre Verwendung des Wörtchens "nie" wird das Argument nicht wirklich besser.
Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 18:01 #42067

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
D.Rajic,
vielleicht hast du mich da jetzt missverstanden. Ich gehe nicht davon aus, dass irgend ein paar schrullige Hochbegabte in einer Garage in einer Kleinstadt irgendwo auf der Welt die harte Ki realisieren werden (allerdings auch nicht auszuschließen :cheer: )
Uns muss bewusst sein, dass KI mit geradezu irrsinnigen Summen an Geld und Humanressourcen vorangetrieben wird, und zwar überall auf der Welt. In DE sind die Leute wie allgemein der Technik gegenüber eher spektisch und misstrauisch. In USA und vor allem Asien sieht man das viel euphorischer, ob nun zu Recht oder nicht sei dahingestellt.
Die Russen und vor allem die Chinesen arbeiten mit Hochdruck dran. Putin sagte letztes Jahr: "Wer bei KI vorne sein wird, wird die Welt beherrschen." Es darf angenommen werden, dass er erkannt hat, um was es geht und da mit dabei sein will mit seinem Land.

Am Rande: Ich weiß immer nicht recht, was ich davon halten soll, wenn die Natur so personifiziert wird.;)

Die Evolution macht einfach eine unbegrenzte Anzahl von "Versuchen". Sie schert sich nicht darum, an wie vielen Stellen möglicherweise weitere Versuche stattfinden. Ihr ist es auch egal, wenn Versuche ad libitum scheitern. Sie hat ja noch genügend Versuche, die nicht auf dem Holzweg stattfinden

Wir neigen immer unterschwellig dazu, der Natur Absichten, ja auch Emotionen zu unterstellen. Aber ich glaube da trage ich jetzt Eulen nach Athen, wenn ich das an dich richte, denn das wird dir bewusst gewesen sein.
Wir aber gehen bei z.B. KI im Allgemeinen zielgerichtet vor. Da verkürzen sich womöglich die Jahrmillionen der Natur zu Jahrhunderten, ja vielleicht jetzt sogar zu Jahrzehnten bis es zu dem kommt, was Bostrom den Take-off der harten KI nennt. Danach wird nichts mehr so sein wie je zuvor. Wir alle unterschätzen die ungeheure Wucht des exponentiellen Fortschritts. Wir leben in einer Explosion des Wissens und Fortschritts.
Anschnallen ist angesagt!
Übrigens, habe ich heute zufällig entdeckt:
Welt-online hat mit der Serie "year million" eine Serie zum Thema gestartet. Wohl etwas reißerisch, aber auch informativ. Aber anders erreicht man wohl die breite Masse nicht.
Die Sendungen werden hauptsächlich freitags um 22:05 Uhr ausgestraht. Allerdings sind einige kurze Clips und Infomaterial auch so online verfügbar in deren Mediathek
www.welt.de/mediathek/dokumentation/gesellschaft/year-million/

Bei den langfristigen Prognosen fröstelt es sogar mich. Aber alles, was die Naturgesetze nicht ausschließen, wird kommen. Du weißt ja, mein ewiges hier schon oft wiederholtes Mantra.
Oder traf es Schiller, wenn er meinte: "Die Weltgeschichte IST das Weltgericht."
Beste Grüße
Cyborg
PS: Entschuldige die Offenheit und ordne es richtig ein, denn ich schätze deine Kommentare hier generell zu den Themen sehr und habe großen Respekt vor dir.
Aber in #42034 bist du deutlich unter deinen intellektuellen Möglichkeiten geblieben, mein Bester. ;)

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 18:13 #42069

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
Es befruchtet den Thread, wenn immer wieder mal philosophische Aspekte ins Spiel kommen.

Analog und digital gelten als Gegensätze. Doch diese Trennung ist Bullshit.

Menschen sind daher Digital-analog-Wandler, meint der Philosoph Walther Ch. Zimmerli


www.nzz.ch/feuilleton/die-wiederkehr-des...digitalen-ld.1402729

Und weiter meint er:

Die Digitalisierung entzieht der Philosophie eine ihrer Grundlagen – am Ende ist sie deswegen aber noch lange nicht.

www.nzz.ch/feuilleton/die-rehabilitierun...aeuschung-ld.1413992

Nach dem Lesen der Artikel fragte ich mich deshalb:
Werden durch Transhumanismus und KI analoge und digitale Daseinsfelder eine neue Ebene des Seins und der Erkenntnis bilden?

Philzer, an dich gerichtet (ich hoffe, du liest es):
Du behauptest sinngemäß, ein kognitives Defizit bestehe auch darin: „Qualia ist nicht quantifizierbar, der Mesokosmos sehr wohl“.

Du forderst Systematizität und nimmst sie für dein System in Anspruch.

Falls du die beiden Artikel gelesen hast, die ich dir ans Herz lege, wie schätzt du das für dich ein? Wird es angesichts wohl nun exponentiell anwachsender virtueller Realitäten, die sich mit analogen überschneiden und durchdringen, aus deiner Sicht und damit im Rahmen deines systematischen Ansatzes überhaupt noch möglich sein, diesen Anspruch einzulösen, den Mesokosmos voll umfänglich quantifizieren zu können?

Schon Heidegger, der sich mit der heutigen von Zimmerli thematisierten Problematik des konjunktiven oder disjunktiven Zusammenhangs zwischen analog/digital noch nicht herumschlagen musste, gab zu Bedenken: „Leben ist historisch; keine Zerstückelung in Wesenselemente, sondern Zusammenhang.“ Davon ausgehend, dass im Grunde alles als Vollzug im Zusammenhang zu deuten sei, stand Heidegger dem Versuch seines Lehrers Husserls der phänomenologischen Reduktion auf ein Ich äußerst kritisch gegenüber, das der Welt „nur“ apperzeptiv gegenübertritt; ja, er lehnte diesen Versuch im Grunde auch ab.

Wie Zimmerli schreibt, dürfte es in einer von analogen und virtuellen „Daseinsfeldern“ sich durchdringenden und sich gegenseitig beeinflussenden Welt für die Philosophie und generell für jede Form der Wissenschaft immer schwieriger werden, den Anspruch nach Systematizität einzulösen oder – trivialer ausgedrückt – die neu entstehenden Dimensionen des Mesokosmos zu quantifizieren, geschweige denn zu ordnen. Auch Zimmerli sieht die Probleme und erkennt, dass sich gerade die Philosophie neu aufstellen muss. Wie das aber geschehen soll, das scheint auch er nicht zu wissen.

Aber es wird ja noch schlimmer. Bei den vorherigen Sätzen habe ich mir nur vor Augen gehalten, dass künftig die Lebenswirklichkeit des heutigen Menschen von analogen und digitalen bzw. virtuellen Ebenen geprägt sein wird. Wie werden sich für die Philosophie und Geisteswissenschaften die Fragestellungen ändern, wenn die ersten Transhumanisten und Cyborgs, die diese Bezeichnung verdienen, und postbiologische Entitäten auf den Plan treten werden?

„Lebensformen“, also Entitäten, für die die Trennung in analoge und virtuelle Ebenen und „Daseinsfelder“ nur noch von rein theoretischer und abstrakter Natur sein wird, weil sie die aus unserer Sicht bizarre, weil neue, verwobene Wirklichkeit aus analog und digital als ihre Normalität empfinden werden, werden wohl auch in der Philosophie eigene Wege gehen, falls sie überhaupt an Philosophie Interesse haben werden, also Interessen, die die Ziele der instrumentellen Vernunft transzendieren (du, Philzer, würdest wohl sagen: falls sie außerinstrumentelle Denker sein werden).

Wie auch immer, dem dialektischen Verfahren dürften sich ganz neue Herausforderungen stellen.

PS: Vielleicht lassen sich meine Gedanken bzw. Fragen auch besser einordnen, wenn man sich die Fragestellungen und Visionen näher anschaut, die z.B. in der Serie "year million" auf Welt-online aufgegriffen werden, die ich im vorherigen Post verlinkt habe. Aber hier einfach noch mal:

www.welt.de/mediathek/dokumentation/gesellschaft/year-million/

Grüße Cyborg

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 20:56 #42081

Cyborg schreibt:

Aber in #42034 bist du deutlich unter deinen intellektuellen Möglichkeiten geblieben, mein Bester.

Kritik kann ich aushalten, so war ja auch eine deiner Fragen. Beleidigungen und Herabsetzungen nicht so gut. Aber das ist diese Ausführung auch nicht. Ich würde ungerne aber den dahinter stehenden Gedanken nicht durch einen Tadel zertrümmern lassen.
Worauf ich hinauswill: Ich glaube, wir haben hier im Thread festgestellt, dass Selbstbewusstsein, Qualia irgendwie nicht zu fassen ist. Deine Position ist doch meiner Erinnerung nach so, dass es eigentlich auch nicht darauf ankommt, weil diese Dinge entstehen werden und zwar vermutlich unvermeidlich so, dass es irgendwie geschieht.
Jetzt hast du aus meiner Sicht Zielgerichtetheit eingeführt. Dann müsste aber doch vorausgesetzt sein, dass es gesichertes Wissen darüber gibt, was dann doch neu ist, oder?



Dieses Thema wurde gesperrt.

Cyborg 13 09. 2018 21:34 #42085

  • Cyborg
  • Cyborgs Avatar
  • Offline
  • Benutzer ist gesperrt
  • Benutzer ist gesperrt
  • Beiträge: 1339
  • Dank erhalten: 320
D.Rajic schreibt:

Jetzt hast du aus meiner Sicht Zielgerichtetheit eingeführt. Dann müsste aber doch vorausgesetzt sein, dass es gesichertes Wissen darüber gibt, was dann doch neu ist, oder?

Hm, gute Frage. Ich glaube einfach, dass man bei KI erst am Anfang ist und fast zwangsläufig dann zu einer Saat-KI kommen wird, aus der harte KI hervorgehen wird. Das wird der Take-off sein. Nach dieser schwer zu definierenden Übergangsphase wird uns diese neue und postbiologische Entität (oder besser Entitäten (Singular oder Plural?) nicht mehr für ihren weiteren "Werdegang" brauchen.
Wir werden etwas erschaffen, dessen Modalitäten jetzt noch offen sind. Wenn es gelingt, diese Saat-KI so zu beeinflussen, dass sie einen "vernünftigen" konvergenten extrapolierten Willen (keW) entfalten kann im Sinne unserer axiologischen Vorstellungen (was sonst wäre die Alternative?), dann wäre das natürlich optimal.
Zur Erklärung: Diesen keW-Begriff verwendet Bostrom auch in seinen Schriften und meint damit im Grunde den kollektiven keW, den eine Menschheit hätte, wenn sie klüger, besonnener, weitsichtiger, sozialer und nachhaltiger in ihrem Denken und Handeln wäre.
Insofern liegt es in der Natur der Sache, dass dieser keW nicht exakt bestimmbar ist, wohl weder für die Menschheit noch für eine harte KI, aber es müsste möglich sein, die Rahmenbedingungen abzustecken. Hinkender Vergleich: Die Lösung einer Differentialgleichung ist ja auch keine Zahl, sondern "nur" eine Funktion.
In diesem, wenn man so will, Prozess der Beeinflussung der Volition einer Saat-KI sieht Bostrom im Grunde die einzige Chance, die Sache in eine Richtung zu lenken, die uns davor bewahrt, dass harte KI mit uns - wenn überhaupt - kooperien wird bzw. auf uns achten wird.
Ich sehe das auch so. Es wird die einzige Chance sein, das sog. Kontrollproblem zu lösen. Wenn es jemals zu einer harten KI kommen wird, die uns als mögliches Risiko ihrer weiteren Entwicklung sieht oder auch nur eigene Ziele verfolgen wird, ohne Rücksicht auf die Auswirkungen auf die Biosphäre, dann ist es um uns geschehen. Zu glauben, so eine übermächtige Superintelligenz, die einmal in der Welt ist (und sie wird in die Welt entlassen werden bzw. Wege in sie finden, denn dazu wird sie ja entwickelt werden im Gegensatz zu einer Atombombe, von der man hofft, sie nie einsetzen zu müssen), könne man dann noch kontrollieren, ist äußerst naiv. Wir müssen davon ausgehen, dass sie nach dem Take-off sich selber mit einer exponetiellen Geschwindigkeit weiterentwickeln wird, die unser Vorstellungsvermögen schlicht einfach sprengt. Du liest ja selber ständig, wie in - horrible dictu - biederen Post hier im Thread immer wieder salopp geschrieben wird, dass man dann ja einfach nur den Stecker zu ziehen brauche. Na ja, über den Tellerrand zu schauen, ist nicht jedermanns Sache.

Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Das größte Glück und den tiefsten Sinn erfahren wir, wenn unser Sehnen, Suchen und Finden in einem einzigen Augenblick zeitgleich präsent sind. Der nächste Augenblick ist dann nur noch schnödes Haben. (Cyborg, am Innufer, 14. April 2018)
Dieses Thema wurde gesperrt.
Powered by Kunena Forum