Montag, 15. Mai 2017

mikefrison.com/3812

Beim autonomen Fahren wird Artificial Intelligence eine Schlüsselrolle einnehmen - soviel ist klar. Aber ein Aspekt, den ich bei AI auch nicht so auf dem Schirm hatte: bei normaler Software, die von Menschen für einen bestimmten Zweck geschrieben wurden, kann man Fehler suchen und fixen. Und bei AI? Fefe erklärt das so:

Das ist bei Machine Learning nicht mehr so. Neuronale Netze sind nicht konstruiert, sondern werden trainiert. Wenn da was falsch läuft, dann kann man das nicht debuggen. Man kann nur nach-trainieren.

Die Folge: zunehmender Kontrollverlust.

Er verlinkt auch diesen Artikel:

Instead of a programmer writing the commands to solve a problem, the program generates its own algorithm based on example data and a desired output. The machine-learning techniques that would later evolve into today’s most powerful AI systems followed the latter path: the machine essentially programs itself.

Ziemlich gruselig.

Als möglicher Lösungsansatz wird herausgearbeitet, dass die Maschine sich erklären muss und Zwischenschritte dokumentiert werden. Sodaß der Mensch die Rationalität der Handlung bzw. Entscheidung nachvollziehen und auch seine ethischen Maßstäbe zur Anwendung bringen kann.

Artificial | Intelligence | Fefe |

Kommentare gerne via Forum, Twitter oder Email.


Neue renn.tv Einträge:


<<<  Zurück zum Blog


Mercedes Hartmann Hotel am Tiergarten - Café und Restaurant direkt am Nürburgring Reifen Schlag Nürburgring - Rennreifen am Ring 20832 sucht Sponsor-Partner