Schattenblick → INFOPOOL → BÜRGER/GESELLSCHAFT → MEINUNGEN


STANDPUNKT/211: Algorithmus verursacht falsche Nachrichten (Pressenza)


Internationale Presseagentur Pressenza - Büro Berlin

Algorithmus verursacht falsche Nachrichten

Von Silvia Swinden, 27. August 2017


London, Großbritannien - 27.08.2017. Heute schaute ich in mein Facebook und entdeckte, dass zwei meiner, in einem anderen Land lebenden, besten Freunde geheiratet hatten. Das fand ich seltsam, da sie schon viele Jahre zusammenleben, ihre Kinder gemeinsam großgezogen hatten und ich auch keine Nachrichten darüber erhalten hatte. Aber die Ankündigung auf FB schien echt zu sein; sie enthielt relevante Fotos und ein paar Glückwünsche. Also schickte ich der "Gemahlin" eine Nachricht, die mir dann sagte, sie hätten bereits vor 35 Jahren geheiratet. Es kam folgendermaßen zu dem Eintrag: als sie versuchte, Ihre E-Mailadresse zu aktualisieren, fragte FB, ob sie verheiratet sei und mit wem, woraufhin dann die Veröffentlichung automatisch erfolgte.

Wir sind daran gewöhnt, dass allerlei falsche Nachrichten über FB verbreitet werden, und zwar aus Bosheit oder Naivität, oder aber aus dunklen Gründen, die unmöglich zu verstehen sind, aber im Allgemeinen können wir irgendeine Art menschliche Absicht dahinter erkennen.

Die Tatsache, dass FB falsche Nachrichten auf Grund eines Algorithmus-Fehlers produziert, führt zu einem anderen Problem. Ich habe mit Interesse die Diskussion zwischen Mark Zuckerberg und Elon Musk über die Zukunft der künstlichen Intelligenz verfolgt.

Den seltsamsten Streit der Welt hat Anfang dieses Monats Musk, der CEO von Tesla und SpaceX ausgelöst, als er wieder Druck für eine proaktive Regelung für künstliche Intelligenz machte. Denn er glaubt diese stellt eine "fundamentale Bedrohung für das Weiterbestehen der Zivilisation" dar. "Ich schlage weiterhin Alarm, aber solange die Leute keine Roboter auf den Straßen sehen, die Menschen töten, werden sie nicht wissen, wie sie auf das Thema reagieren sollen, weil alles so vage zu sein scheint", sagte er. Als Stellungnahme zu diesem Thema befragt, sagte Zuckerberg: "Meine Meinung dazu ist fundiert. Ich bin ein Optimist und ich glaube, dass die Leute, die Angst bekommen und dann versuchen solche apokalyptischen Szenarien zu beschreiben, entweder falsch liegen oder ich sie nicht verstehe. Was sie tun, ist wirklich negativ und ich glaube, dass sie ziemlich unverantwortlich sind. The Guardian [1]

Aber anscheinend werden wir, bevor wir sehen, wie die Roboter die Weltherrschaft übernehmen, noch Zeuge einiger ziemlich besorgniserregender Unfälle werden, einfach weil die Algorithmen, die verantwortlich für die meisten automatisierten Aufgaben dieser Online-Riesen sind, immer komplexere Aufgaben übernehmen, für deren Bewältigung sie nicht unbedingt in der Lage sind. Dafür gibt es bereits kleine Beweise. Diese falsche Nachricht über meine Freunde ist ganz harmlos, aber wer weiß, welche Art von Verwirrung eine weniger gutartige "Information" anrichten kann und das Verhalten derjenigen beeinflusst, die alles, was sie in den sozialen Netzwerken sehen, für bare Münze nehmen.

Ein weiteres Software-Malheur ereignete sich auf FB durch einen Fehler, der Namen von Verantwortlichen für Inhalte der Öffentlichkeit zugänglich machte:

"Enthüllt: Facebook enthüllt die Identität von Gruppenmoderatoren, die mutmaßliche Terroristen sind. Eine Sicherheitslücke, die mehr als 1.000 Mitarbeiter betraf und einen Moderator dazu zwang, sich zu verstecken - er lebt immer noch in ständiger Sorge um seine Sicherheit". The Guardian [2]

Die menschliche Intentionalität, die Art und Weise, wie das Bewusstsein die Daten der Sinne und des Gedächtnis strukturiert, hat eine Richtung und einen emotionalen Ton. Die ganze Menschheit versucht, sich vom Leiden zu befreien und sich einem sinnerfüllten Glück zu nähern. Auch wenn sie es scheinbar nicht richtig macht (zunehmende Gewalt), ist es doch möglich, die Wurzeln dieser Fehler zu verstehen: Angst, Frustration, Ungerechtigkeit, Indoktrination, Gier.

Wenn Algorithmen ihre eigene Strukturierung organisieren, sollten wir ihnen aber keine Intentionalität beimessen. Nur Menschen können eine Richtung vorgeben. Maschinen folgen einer gewissen Logik, die von ihren menschlichen Schöpfern vorgegeben wird, aber die Suche nach künstlicher Intelligenz beinhaltet zwingend die Möglichkeit von zufälligen Verbindungen, eine gewisse "Freiheit", die sie von einfachen Taschenrechnern unterscheidet.

In dem Moment, in dem Alan Turing, der Vater der modernen Computer, den Turing-Test schaffte (dessen Ziel es war, den Moment zu erkennen, ab dem es nicht mehr möglich ist, die von einem Menschen gegebenen Antworten von den von einem Computer gegebenen Antworten zu unterscheiden), begann das Rennen darum, die zwingende menschliche Kontrolle hinter sich zu lassen. Besorgniserregender ist die Tatsache, dass, in einer Gesellschaft, in welcher Profit der höchste Wert ist, die menschliche Ethik viel Boden an die Forschung verloren hat. Und in der Ära des transnationalen Cyberspace kann kein Nationalstaat darauf hoffen die Regeln und Vorschriften anwenden zu können, die durch seine demokratischen Mechanismen - auch wenn diese unvollkommen sind - verabschiedet wurden. Mit anderen Worten, eine neue Art totalitärer Regime entscheidet, welche Art von Technologie unser Leben gestalten wird.

Es geht nicht darum ein Luddite [3] oder ein paranoider Technophobe zu werden und die Roboter zu fürchten. Die Gefahr liegt heute in den menschlichen Absichten, die entscheiden werden, ob künstliche Intelligenz oder künstliche Dummheit vorherrschen wird. Nur die Vermenschlichung der Werte der Gesellschaft kann die Technologie in die richtige Richtung lenken.


Übersetzung aus dem Spanischen von Gustavo Joaquin


Über die Autorin

Silvia Swinden schrieb das Buch "From Monkey Sapiens to Homo Intentional: The Phenomenology of the Nonviolent Revolution" - Adonis & Abbey, London 2006


Anmerkungen:

[1] https://www.theguardian.com/technology/2017/jul/25/elon-musk-mark-zuckerberg-artificial-intelligence-facebook-tesla
[2] https://www.theguardian.com/technology/2017/jun/16/facebook-moderators-identity-exposed-terrorist-groups
[3] Im 19. Jahrhundert zerstörten englische Textilarbeiter die neu eingeführten Maschinen, um ihre Arbeitsplatz zu schützen


Der Text steht unter der Lizenz Creative Commons 4.0
http://creativecommons.org/licenses/by/4.0/

*

Quelle:
Internationale Presseagentur Pressenza - Büro Berlin
Johanna Heuveling
E-Mail: johanna.heuveling@pressenza.com
Internet: www.pressenza.com/de


veröffentlicht im Schattenblick zum 29. August 2017

Zur Tagesausgabe / Zum Seitenanfang