Er zijn veel doemdenkers over dit onderwerp.. eventjes voor die groep doemdenkers het volgende:
Robots zijn afhankelijk van mensen. Mensen ontwerpen robots, bouwen ze, en programmeren ze. Dat een ras van robots ooit de mensheid weg zou vagen en een eigen samenleving start lijkt me ongelooflijk ver gezocht. Autonome robots kunnen geprogrammeerd worden zoals we maar willen. Een gedragsregel zou kunnen zijn geen mensen kwaad te doen bijvoorbeeld.
1. Autonome robots kunnen plaatsgebonden kunnen worden gemaakt, bv. ze werken alleen maar binnen één gebouw.
2. Ze kunnen geprogrammeerd worden mensen nooit wat te doen.
3. Wat als robots de kennis van wapens of menselijke anatomie ontbreekt? Dan kúnnen ze niet eens tegen ons vechten.
4. ALS er al iets zou gebeuren, denk je dan dat de mensen zich er bij neerleggen? Zodra één robot een mens iets doet, worden alle robots stilgelegd totdat de programmafout is gevonden.
Zelfs als we 100% autonome robots KUNNEN maken, dan nog zouden ze moeten "ontsnappen" , zich ergens anders vestigen, een gestructureerde samenleving oprichten, fabrieken bouwen, andere machines ontwerpen, software herschrijven, grondstoffen verzamelen, en andere robots bouwen voordat ze überhaupt iets kunnen beginnen tegen mensen. Lijkt me een beetje vergezocht, nietwaar?
Zelf geloof ik helemaal niet zo in het nut van zelfdenkende humanoïde robots. AI is mooi, als computer, niet als robot. Robots zijn mooi, zolang ze voor een enkele taak ontworpen zijn. (zoals fabrieksrobots nu). Een ander punt is het WAAROM. Waarom zouden we enorme verantwoordelijkheden over laten aan machines? Voorbeeld uit films: Defensiecomputers gaan denken en roeien de mens uit. WAAROM moest de computer die de kernraketten bestuurde zelf denken? Welk nut had dat? Waarom zouden we machines de macht of de kracht geven om een mogelijk gevaar voor de mensheid te zijn?
__________________
On my Journey, Destinations are Optional, and not Always Desirable.
|