zondag 18 januari 2015

Skynet?



We kennen allemaal de legendarische film: 'Terminator". De strijd van mensen tegen machines, ontsproten uit een project van de Amerikaanse krijgsmacht verklaarde een computernetwerk ( skynet ) de oorlog aan de mensheid en wilde de aarde overnemen.


                                     

Mooie film, zijn tijd in vele aspecten ver vooruit. Echter, dit was niet de eerste film die het gevaar inzag van kunstmatige intelligentie, we herrineren ons allemaal H.A.L. uit de Space Oddysey reeksen. Nu denk ik dat we nog lang niet dicht bij echte kunstmatige intelligentie staan. Enkele posts geleden heb ik al besproken waarom ik dat denk.




Echter, niet iedereen is het met me eens ( natuurlijk ). In dit geval niet de minste. Het 'Future of life- institute ' met daarin onder andere Stephen Hawking als geleerde waarschuwt ons voor de ontwikkelingen in kunstmatige intelligentie.

Brief

"Het Future of Life-instituut waarschuwt in een open brief voor de potentiƫle gevaren van verdere ontwikkelingen op het gebied van kunstmatige intelligentie.
Dat doet het in een open brief, die is ondertekend door meerdere experts binnen het vakgebied, waaronder Stephen Hawking, de oprichters van kunstmatige intelligentiebedrijf Deepmind en Tesla-ceo Elon Musk.

Het instituut stelt dat dergelijke software enorm veel voordelen biedt, maar dat er wel gedacht moet worden aan manieren om de systemen in toom te houden, zodat ze "doen wat we willen".
Daar is volgens het instituut meer onderzoek voor nodig, onder meer naar het zelflerende aspect van kunstmatige intelligentie. "

Kunstmatige intelligentie 

Het Future of Life Instituut geeft in een bijgevoegd document meerdere voorbeelden, waaronder dat van een zelflerende robot.
Als de kunstmatige intelligentie hiervan zo is geprogrammeerd om een taak uit te blijven voeren, dan zal het systeem altijd situaties vermijden die het volbrengen van de taak in de weg staan.Dat wordt volgens het instituut problematisch zodra het systeem geherprogrammeerd of gedeactiveerd moet worden, omdat het dat ook zal proberen te vermijden.Er moet daarom gedacht worden aan uitzonderingen die ingrijpen door menselijke hand mogelijk maken. Future of Life stelt dat dergelijke controle slechts een van de aspecten is van kunstmatige intelligentie waar nog verder onderzoek voor nodig is.



auto's

Als voorbeeld hebben ze de zelfrijdende auto, dat vind ik weer wat jammer. Ze klagen over wetgeving die niet aansluit bij een ongeluk of aanrijding en dat het aantal rechtzaken enorm zou stijgen, goed, dat is iets Amerikaans denk ik dan maar.
Natuurlijk hebben ze wel een punt, virussen zijn in principe ook al vormen van kunstmatige intelligentie en die weten al enorm veel schade aan te richten ( stuxnet anyone? ).


We houden het in de gaten.

Geen opmerkingen:

Een reactie posten