Impressum | Nutzungsbedingungen | Datenschutzerklärung | Website Piratenpartei Deutschland

Künstliche Intelligenz


#1

Wir sollen wir damit umgehen? In den Medien liest man eher von KI als Heilsbringer oder als Einleiter der Apokalypse. Wir sollten da eine differenziertere Position vertreten.


#2

Warum denn?


#3

Weil Kernthema. Weil Zukunft. Weil Leute überrascht wären, wenn wir dazu nichts sagen können als vorgebliche Digitalpartei.


#4

Warum muss es denn differenzierter sein?


#5

Muss es streng genommen nicht, aber überhaupt mal eine Position wäre gut.


#6

Natürlich muss es differenzierter sein. Extreme zu bedienen ist immer Unfug. Dafür braucht’s aber Fachleute. Noch welche da?


#7

Da es mehr als eine Art von KI gibt wird man mit einer Position nicht auskommen. Zumal es bisher mit I von KIs noch nicht so weit her ist.

Aber KI ist keine Lösung für alles.


#8

Ich sehe in KI eine enorme Chance, aber auch ein enormes Risiko! Man sollte sich nicht grundsätzlich gegen den Einsatz von KI stellen, da wir viele Probleme so evtl. lösen könnten. Es bedarf aber m.M.n. einer (strengen) gesetzlichen Regulierung, dass KI nicht zur Ausbeutung von Arbeitern, Krieg, etc. genutzt werden darf. Ihr Einsatz sollte meiner Ansicht nach auf wissenschaftliche und arbeitstechnische Gebiete sowie ggf. Freizeitaktivitäten beschränkt sein.


#9

Doch!

Wenn unserer Piratenpartei schon die natürliche Intelligenz abhanden gekommen ist, sollte sie doch wenigstens ein künstliche adoptieren dürfen! Irgendeine halt, lol


#10

Hat das denn irgendwann irgendwo schon einmal funktioniert?


#11

Falscher Ansatz, wenn man nur Dinge die sich bewährt haben tun darf.


#12

Bewährt? Eigentlich nicht!

Aber alles Neue wird seit der Steinzeit vom Menschen exakt für die Dinge eingesetzt, die Du gerne ausschließen möchtest!

Und da statt Steinäxte zwischenzeitlich Drohnen und Atomwaffen zur Verfügung stehen, kann ich mir schwer vorstellen, dass nach allen bisherigen Erfahrungen jemand aufgrund irgendwelcher Absichtserklärungen ein solches Risiko eingehen möchte, sofern man denn überhaupt gefragt würde…

Ich fürchte daher, dass Dein Ansatz falsch sein muss!


#13

Wichtig finde ich auch die Frage der internationalen Regulierung von intelligenten Systemen. Nick Bostrom legt in “Superintelligence” nachvollziehbar dar, dass KIs technisch möglich sind und wie wie eine hinreichend intelligente KI durch rasante Selbstverbesserung ein existenzielles Risiko für die Spezies darstellen kann.


#14

Wollen wir mal realistisch bleiben und ein dystopisches Szenario des Untergangs der Menschheit für die nächsten 100 Jahre eher ausschließen, die Menschheit wird eher anders untergehen mMn.

Fakt ist: KI wird gerade eingesetzt und hilft bei Entscheidungsfindungen und das ist ziemlich intransparent. Ich würde daher gerade bei der Intransparenz ansetzen. KI macht irgendwas aus riesigen Datenmengen und per für Menschen nicht nachvollziehbarer Voodoo-Magic werden Ergebnisse extrahiert, die von menschlichen Lösungsvorgängen stark abweichen, siehe Mahjongg oder Schach etc. von Googles KI. Und als Piraten können wir solche intransparenten Vorgänge nicht dulden.


#15

lEs gibt bereits bei Atomwaffen nur wenige Länder die diese besitzen. Solche mächtigen Waffen die die gesamte Zivilisation auslöschen können, wie auch KI, müssen m.M.n. international verboten werden und unter strenger Kontrolle stehen. Länder die dagegen verstoßen müssen sanktioniert werden.

Transparenz finde ich immer gut, man sollte nicht vergessen KI auch für den Otto-Normalverbraucher begreiflich zu machen.


#16

Also was unter dem Schlagwort “Algorithmenethik” gehandelt wird?


#17

Äh. Irgendwer hier der sich mit dem Thema wirklich auskennt?
Will ja eigentlich nicht arrogant rüberkommen, aber eine Diskussion über KI so ganz allgemein ist schon ziemlich unsinnig.

Allgemein kann man nur feststellen:

  1. KI ist kein Vodoo

  2. Entscheidungen einer KI lassen sich sehr wohl nachvollziehen

  3. Solange keiner überlebenswichtige Faktoren (Energie-/Nahrungsproduktion oder Massenvernichtungswaffen) allein einer KI überlässt, geht von KI keine Gefahr für die Menschheit aus.

Aktuell verbreiten einige Unternehmen wie MS und Google DeepLearning-Bibliotheken für Lau, was dabei herauskommt, das wird schon eher interessant für uns!

Die Assistenten, welche sich grade zunehmender Beliebtheit erfreuen, werden auch eine zentrale Bedeutung haben für unseren Alltag. Datenschutz und Überwachung interessiert hier mal wieder niemanden, aber das kennen wir ja schon von Google und Facebook.

Aber das ist ein anderes Thema, geht dabei ja nicht um KI selbst.


#18

Sorry, das ist Unsinn. KI ist aktuell nicht nachvollziehbar und deshalb gibt es einen großen Forschungsbereich, der genau das tun will.


Du hast einen großen Datensatz und KI extrahiert daraus irgendwelche Ergebnisse nach festgelegten Regeln. Aber es wird noch nicht verstanden, wie genau das geht.


#19

Schwachsinnsartikel.
Auch für Fragen gilt das SiSo Prinzip aus der Informatik:

Shit In Shit Out

Da wo es interessant ist zu erfahren, wie eine KI zu ihrem Ergebnis gekommen ist, lässt man sie entsprechende Protokolle anfertigen.
Fertig.


#20

Okay, ich wollte ja nicht arrogant rüberkommen:

Es gibt einen Forschungsbereich, der sich mit Evolutionären Algorithmen beschäftigt.
Angewendet auf Neuronale Netze ist das Ergebnis tatsächlich nur noch theoretisch nachvollziehbar.

Es gäbe zu viele “Missing Links” um bei der Analogie der Evolutionstheorie Darwins zu bleiben.
Es sei denn, man würde keine noch so unbedeutende Aufzeichnung (Protokoll) wegschmeißen.
Hier wird dann die Theorie (man kann alles aufzeichnen) von der Praxis gebissen.