![]() |
De minpunt van AI
Hey beste mensen,
Misschien dat de titel van dit topic beetje verkeerd is, dus hiervoor mijn excuses, maar ik zal beginnen met mijn verhaal. Ik zat laatst even na te denken over AI (Kunstmatige Intiligentie), en computers etc. Volgens de wetenschap voelen dingen zonder zenuwen geen pijn etc. Dit is een zeer interessant punt, want machines hebben geen zenuwen, en voelen hoogst waarschijnlijk, dan ook geen pijn. Zullen alle "berekeningen" die de kunstmatige intiligentie (wat heel waarschijnlijk dan in een robot/pc zit) puur wiskundig en "rationeel" zijn? Het is wel een punt om aandacht aan te besteden, want in feite zoeken wij allemaal naar methodes om geen pijn te lijden. Door middel van geloof, ethisch verantwoordbare manieren om zus en zo te doen (om zo rechtvaardig te zijn en dus zo weinig mogelijk geestelijke pijn te ervaren). In extreme vorm, zoals in boeddhisme en hindoeisme, is het voorzaken van pijn bij anderen ook het veroorzaken bij pijn van jezelf. Dus hierdoor wordt o.a compassie van gekweekt etc. Nu is dus mijn punt, zou het zo kunnen zijn dat kunstmatige intiligentie nooit etisch/moreel bewustzijn krijgt en nooit compassie zal kunnen leren omdat het nooit pijn heeft ervaren en dus ook niet de drang om pijn te ontwijken? KMBA |
Het denk ik wel een moreel 'bewustzijn' wel bijgebracht kan worden maar als je bedoelt dat iets met kunstmatige intelligentie autodidactisch normen en waarden zal leren, daarover denk ik dat dat onmogelijk is. Niet zo zeer omdat ze geen pijn kennen maar omdat iets met kunstmatige intelligentie zelf niet bewust is van zijn bestaan. En technologie daarvoor zie ik de komende 50 jaar nog niet verschijnen aangezien het ook niet duidelijk is waarom wij weten dat wij bestaan en een aantal andere diersoorten niet.
Morele en ethische waarden kunnen altijd worden ingevoerd maar dan zullen het altijd menselijke waarden zijn. |
Je kunt best temperatuur- of gevoelssensors aan een programma koppelen en dat programma een 'pijn'routine laten runnen als bepaalde impulsen via die sensoren binnenkomen.
Is dat dan het voelen van compassie, moreel of ethisch bewustzijn? Tsja. En als je dat programma nu ook een routine laat runnen die in het vervolg dingen die die sensors triggeren vermijdt? Of die vcermijdt die sensoren bij andere machines te triggeren? Heb je dan een machine met compassie? Ik denk dat je de vraag veel dieper moet stellen. Dit voorbeeld is niet echt sprekend namelijk. |
Als je dit een interessant onderwerp vindt, kan ik je De IJzeren Wil van Bas Haring aanraden (je weet wel, die tv-filosoof).
Ikzelf vind het onderscheid tussen 'menselijke' emotie en computergestuurde 'emotie' nogal arbitrair, wat is het fundamentele verschil tussen een hittesensor die een computer-routine beinvloedt en een verbranding van de huid, die een 'hersen-routine' start waardoor je je hand (bijvoorbeeld) wegtrekt? |
Citaat:
|
Ik denk dat je bij dit soort vragen bij jezelf moet beginnen en niet per se bij computers. Wat is gevoel precies ? Is er een aspect wat onbeschrijflijk ofwel onnabootsbaar is en waarom ? Ikzelf denk dat gevoel en emotie gewoonweg fenomenen zijn die emergeren uit het complexe netwerk dat ons lichaam maakt. Hoe precies is lastig na te gaan, hoewel stapjes worden gemaakt.
Een andere interessante denkstap is de meer evolutionaire. Dieren zijn niet voor niks op de wereld gezet: ze geven een mooi beeld van alternatieve levenswijzen en beantwoorden vragen over de invloed van een ditje en een datje toegevoegd aan een lichaam. Alleen mensen denken in taal (is dit zo ?), waarom ? Voelt een konijn, een insect, een pantoffeldiertje, een simpel programma, een complex programma, een bionische mens ? Overschat de mens niet omdat je er toevallig zelf een bent. |
Citaat:
|
Citaat:
|
Citaat:
|
Interessant punt.
Ik denk dat je het best kan beginnen met de vraag of gevoelens objectief of subjectief zijn. Zijn gevoelens dus voor iedereen hetzelfde (objectief) of voor iedereen anders (subjectief)? Voor het eerste geval is veel te zeggen, maar voor het tweede ook. Gevoel lijkt objectief want het is gewoon af te lezen van iemand. Als er net kokend water over iemand heen gegooid wordt en hij gilt als een speenvarken, dan is het voor alle omstanders meer dan duidelijk dat hij pijn voelt. Aan de andere kant is het moeilijk toe te geven dat bjvoorbeeld gevoelens van liefde ook voor iedereen hetzelfde zijn. Maar je kan op die punten ook weer op duizend verschillende manieren in gaan. Het probleem is dat wij niet eventjes een ander zijn gevoel kunnen ervaren om het te vergelijken met de onze. Wel kan er gezegd worden dat de wetenschap zich zal bezig houden met de objectieve eigenschappen van gevoel. Aan de subjectieve hebben zij veel minder, het is niet meetbaar en niet universeel. |
Een handige vrij hierbij is dan ook wel: .. Kunnen computers, machines etc. ook een andere denkwijze beheren behalve wiskundige, rationele denken... (dus ook emoties, gevoelens.. etc.)?
|
Je had het toch over kunstmatige intelligentie (of intiligentie om precies te zijn maar goed). Dat is wat anders dan computers en machines. KI geef je een bassiset mee en moet zich van daaruit ontwikkelen en dan kunnen best emoties of wat dan ook ontstaan, dat is bij ons immers ook gebeurd.
|
Citaat:
|
Citaat:
|
Citaat:
|
Fysieke sensaties en de correcte reactie daarop zijn eenvoudig in te programmeren. Die spelen zich af op een basaal en instinctief niveau en leveren in alle gevallen dezelfde uitkomst op.
Maar hoe programmeer je emoties in een computer? Hele volksstammen liggen op de divan bij een psychiater omdat het ergens in hun leven misging met het inprogrammeren van hun gedrag. Hoe programmeer je een persoonlijkheid in een computer? De hele nature versus nurture discussie is blijven steken op de aanname dat inderdaad beide factoren van belang zijn, maar in hoeverre? Dat is de informatie die een programmeur nodig heeft. Hoe programmeer je sociale regels, de mores van een samenleving in een computer? |
Dat is al redelijk goed mogelijk, afaik. Maar Alicia heeft wel gelijk: je kunt weliswaar een AI programmeren die op een zekere input dezelfde processen uitvoert als een levend organisme -specifiek: een dier- en dus inzoverre een volledige simulatie uitvoert, maar het echte "waarderende" aspect is -vooralsnog?- exclusief dierlijk.
Illustratief is het volgende citaat: "Psychiatric lexicons contain the term alexithymia for the condition of certain people who cannot describe or recognize emotions, who are able to define them 'only in terms of somatic sensations or of behavioral reaction rather than relating them to accompanying thoughts.' Such people are handicapped by their inability to understand what feelings are. It is curious that the study of animal behavior should demand that its practitioners turn themselves into alexithymics." http://en.wikipedia.org/wiki/Emotion_in_animals Weliswaar is de context een andere dan die welke hier van belang, maar het punt is: AI-emotie kán alleen maar "somatic sensation" en "behavioural reaction" zijn. :) |
Citaat:
Citaat:
Citaat:
|
Nou nou nou, weten we het weer beter? Moeten we weer het laatste woord? :nono:
|
Ik studeer A.I. ik weet echter op dit gebied niet veel meer dan jullie, aangezien dit vrij filosofisch en toekomst gericht is.
Uhm over die discussie betreffende het bewustzijn, dat is een beetje lastig. Men weet namelijk barweinig over hoe de hersenen precies werken. Je kan daarom moeilijk een vergelijking maken. Bovendien is het maar net hoe jij het begrip bewustzijn definieert. Maar goed wat ik me zoiezo afvraag waarom een mens exact reproduceren? Ik begrijp wel dat wetenschappers erop kikken maar wat is het uiteindelijke doel? Het is toch vooral zaak om machines te ontwikkelen die mensen van bepaalde taken kunnen ontlasten. Of om efficienter bepaalde taken uit te voeren. Emotie lijkt me niet nodig, aangezien je zoiezo geen machine gaat aanstellen voor emotionele doeleindes? Dat lijkt me onverantwoord. |
Citaat:
Zoals JCG zegt bestaat programmatuur uit regels, als jij wil dat bepaalde handelingen niet worden uitgevoerd hoef je dat enkel te coderen. |
Citaat:
Je moet trouwens goed beseffen dat pijn subjectief is : het is niet pijnlijk, maar het voelt wel zo aan. Je kan dus nooit een machine bouwen waarvan je zegt "dit kan pyn voelen" want dat kan je nooit bewyzen. Ook als ik een kloon van myzelf maak door molecule voor molecule na te bouwen (een biomachine dus) kan ik nooit zeker zyn dat die machine pyn heeft, ook al reageert hy op exact dezelfde manier als ik als er kokend water op de hand wordt gegooid. Er is dus geen wezenlyk verschil tussen machines en 'levende' wezens. Je kan immers geen moment of plaats aanduiden waarop een pynprikkel overgaat tot een mentale gewaarwording. Als je een machine complex genoeg maakt (of laat evolueren) zal het pyn voelen, immers, biomachines kunnen het ook. btw : is Alicia Silverstone geen pornoster ? :confused: |
.
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
p. 89: "Im Gegensatz zu natürlichen Systemen jedoch sind Rechner weder zu selbst ausgebildeten Bewertungskriterien noch zu emotionsbasierten Bewertungen imstande (voetnoot: Eine Simulation hilft hier auch nicht weiter, dennn simulierte Emotionen sind eben keine echten Emotionen, und eine simulierte emotionale Bewertung kann so auch keine wirklich affektive sein). Dieser Unterschied verhindert so wichtige 'Begleiterscheinungen' wie das Einfühlungsvermögen, Skepsis oder Freude, so dass Elektronengehirne rein rationale kognitive Systeme sind, deren Urteilsvermögen nicht affektiv 'getrübt' ist. p. 91, waar het gaat over de motorische reacties van AI als output op een zekere externe/interne input: "Das eigentliche Problem besteht auch hier in deren (=van die motorische [re]acties) Ansteurung: Die Aktion selbst sollte nicht willkürlich vonstatten gehen, sondern irgendeinem Plan der Maschine folgen, die damit ein bestimmtes Ziel zu erreichen trachtet. Die 'Handlungen' des Rechners haben intentional zu sein im Sinne der Zweckgerichtetheit der Handlungen und im Sinne der Vorsätzlichkeit des Computers. Ein entsprechendes Programm zur intelligent-intentionalen Steuerung von z. B. Robotern zu entwickeln ist geradezu die Sisyphusaufgabe der Künstlichen Intelligenz." En in 't algemeen over de stand van AI onderzoek, ook wel aardig om even te lezen: p. 90, voetnoot 15: Vergessen Sie alles, was Sie in verschiedenen Zeitungen, Zeitschriften und wissenschaftlichen Berichten darüber gelesen oder gesehen haben: Das meiste des von den Wissenschaftlern Geäußerten dient lediglich der Sicherung finanzieller Mittel. Je weiter man sich aus dem Fenster lehnt, desto mehr Geld glaubt man einstreichen zu können. 95 % des Gesagten ist schlicht Unsinn. Es wird weder Gehirnscanner geben, die Ihren Gehirngehalt auf Festplatte abspeichern, noch echt affektiv handelende Roboter, noch superintelligente Maschinen, die dann die Menschheit ausrotten. (Die Gentechniker werder hier garantiert um einiges schneller sein, darüber sollten Sie sich Gedanken machen!)" |
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
Hoe weet je of biomachines het kunnen, ik heb de omschrijving van een biomachine (die je een stukje naar boven gaf) gelezen en die dingen bestaan nog helemaal niet (uitgezonderd een of ander minibeest). Citaat:
De stukjes uit het boek die je hier gequote hebt vertellen iets over de mening van de schrijver, nl dat computers geen emoties kunnen hebben en dat een computer alleen een motorische reactie geeft vanuit een voorgeprogrammeerd doel. Blijkbaar vindt hij dat dat bij de mens heel anders in elkaar zit (ik neem aan dat hij vindt dat mensen een vrije wil hebben). Wat ik dan wel interessant had gevonden om te weten, is waarom de schrijver dat zo vindt, want de argumenten ontbreken. Ik neem aan dat dat wel ergens anders in het boek zal staan. |
Citaat:
Eh, dat kost natuurlijk wel extra tijd. Bij een taal als Duits is dat toch niet echt nodig? :o Citaat:
Hij neemt niet aan dat mensen vrije wil hebben. De kwestie van de vrije wil wordt niet gethematiseerd, maar gegeven het feit dat de auteur graag parallellen trekt tussen de menselijke geest en een computer -en in dat verband de parallel tussen een computertaal en een mensentaal- is het bepaald onaannemelijk dat hij mensen een vrije wil toedicht. Zeker, emoties en spontaan doelgericht handelen, zoals bij mensen, kunnen op een computer niet werkelijk gerealiseerd worden, maar dat heeft met vrije wil niks te maken. Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
|
Citaat:
Om de vraag te beantwoorden of machines ooit pijn kunnen lijden, moet je eerst een duidelijke definitie van pijn hebben. Pijn zal vaak worden gedefineerd als een "onaangenaam gevoel" of iets dergelijks. Je zou kunnen zeggen dat mensen zich altijd zo aangenaam/prettig/gelukkig mogelijk proberen te voelen. Als er iets gebeurt wat je pijn doet, kun je dat zien als een soort alarm (daarom schrik je zo en reageer je zo panisch). Er zijn genoeg computerprogramma's die een functie proberen te maximaliseren. Als die functie maximaal/hoog is, zou je min of meer kunnen zeggen dat het programma gelukkig is. Als er iets pijnlijks gebeurt, wordt dat opgemerkt door de sensoren en kun je iets implementeren waardoor je machine meteen stopt met waar hij mee bezig is (hij schrikt) en er iets aan gaat doen. Dat laatste is misschien rationeler dan wat mensen doen, maar je kunt je ook afvragen waarom wij min of meer panisch reageren als iets pijn doet. Misschien weten we zo snel niet wat we moeten doen (inefficiënt planningsalgoritme), of misschien is het wel omdat we dan beter leren dat we in het vervolg moeten zorgen dat het niet meer gebeurt (en dat lijkt me ook wel te implementeren). Uiteindelijk denk ik dat pijn in (levende) organismen bedoeld is als een signaal van het lichaam naar de hersenen dat er iets mis is en dat daar iets aan gedaan moet worden (en eventueel dat er geleerd moet worden om het te voorkomen). Mensen "doen er iets aan" door te schrikken, snel hun hand terug te trekken, langere tijd een onprettig gevoel te hebben (sneller kloppend hart enzo), te leren dat ze in het vervolg beter op moeten letten en eventueel door naar de dokter te gaan. Machines "doen er iets aan" door te stoppen waar ze mee bezig waren, snel hun hand (oid) terug te trekken, te leren dat ze het voortaan moeten voorkomen en eventueel door het aan te geven bij hun maker. Of dat fundamenteel anders is, weet ik niet... |
Citaat:
Er bestaan bijvoorbeeld al robots die zelf leren en tot oplossingen komen. Zo heb je een zwerm robotjes die een object moet vinden in een doolhof. Allereerst schieten die robotjes alle kanten uit, als een bepaalde route tot niks leidt geeft een robotje dit door aan de andere robots die zullen deze route niet meer volgen. Als het object wortd gevonden wordt dit eveneens doorgegeven aan de andere robots. De eerst volgende keer dat je deze zwerm robotjes op het doolhof loslaat wordt direct het object gevonden. Ofwel de robotjes hebben uitzichzelf iets geleerd. Nu zijn wij instaat heel wat complexere handelingen te verrichten, maar ons hersenen (programmatuur) stelt ons instaat om te handelen. Dat blijkt ook, want als iemand hersenschade heeft kan het bepaalde handelingen niet verrichten. Veel mensen zien emotie, spontaniteit etc etc iets dat buiten het lichamelijke (organische --> hersenen) staat. Maar dat is niet zo, emotie hoort tot bepaalde "delen" van de hersenen, al die delen bij elkaar noemt men het limbisch systeem. Zonder amygdala (kern limbisch systeem) --> geen emotie. Ofwel ook emotie is wel degelijk ergens "voorgeprogrammeerd", alleen de scenario's net als het bovengegeven voorbeeld met die robotjes zijn niet ingeprogrammeerd. Men spreekt niet voor niks over biologische aanleg... En emotie zou je als een soort ruis in computers kunnen implementeren. Met ruis bedoel ik een reactie nadat een computer een signaal detecteerd. Een reactie waarbij er enige storing (ruis optreedt) binnen het systeem, bijvoorbeeld meer energeie verbruik om maar wat te noemen. |
Na hier even nagedacht te hebben moet ik zeggen dat ik er zelf niet echt uitkom.
Ik denk dat om te bepalen of een robot/machine een etisch/moreel bewustzijn we eerst moeten weten hoe wij (mensen/dieren) aan dit bewustzijn komen. Wat ik denk is dat mensen aan een ethnisch en moreel bewust zijn komen omdat wij in ons leven aangestuurt worden door een drang naar dingen die wij als prettig ervaren. Een voorbeel hiervan is het niet doodgaan. De drang om te blijven leven heb je altijd, iets wat je al weet zodra je geboren wordt, zonder dat iemand je dat hoeft te leren. (instinct?) Omdat wij als mensen voor onszelf weten wat we wel en niet prettig vinden kunnen we daarop gebaseerde negatieve en positieve gevoelens hebben. Omdat een machine alleen maar doet wat ie moet doen en daar geen voldoening of plezier uit haalt zal hij ook geen negatieve gevoelens hebben als het niet lukt. Als ik het zo bekijk dan kan in concluderen dat machines niet kunnen voelen en geen bewust zijn hebben (dus ook geen etnisch of moreel). Maar als je nou stelt dat we een machine maken die net zo geprogrammeerd is als een mens. Deze machine kan dus bepalen welke handelingen en welke input (waarnemen van sensors) hij positief en welke hij negatief vind. Dan zou een robot ook kunnen leren wat pijn is en zou hij andere machines die hem belemmeren in het doenvan handelingen die hem positieve gevoelens geven als niet vriendelijk kunnen beschouwen. In dit geval lijkt het alsof een machine wel een bewust zijn heeft. We zullen nooit machines kunnen maken die gevoelens of emoties kunnen ontwikkelen die wij niet kennen omdat alles door een mens gedfinieerd zal moeten worden. We kunnen machines maken die sneller, sterken en nauwkeuriger zijn dan mensen maar niet machines die anders kunnen denken dan wij. We kunnen alleen onszelf namaken. Misschien dat we ooit een bewustzijn van een machine kunnen maken maar ik denk dat dat moeilijk word omdat we ons eigen bewustzijn niet echt kunnen definieren omdat we niet slimmer dan onszelf kunnen zijn en daarom ook moeilijk kunnen bepalen wanneer een machine een bewustzijn heeft. |
Citaat:
Ik denk dat we de neiging om in dit geval te zeggen: "Hij/Het reageert zo omdat op regel 1.434.671 van zijn programma staat dat 'if (heatsensorOverload) then start panic-routine', dus dat is heel iets anders dan dat hij ook echt pijn voelt". Dus omdat we precies weten waarom een robot iets doet, vinden we gelijk dat alles wat hij doet logisch/rationeel/voorgeprogrammeerd/etc. is en dus niet emotioneel. Dat lijkt me niet per se een goede conclusie, omdat wij misschien ook wel voorgeprogrammeerd zijn (min of meer). Bovendien lijkt het wel zo dat wij precies weten waarom een robot iets doet, maar misschien is dat wel helemaal niet zo. Wij kunnen bijvoorbeeld in principe niet weten hoe een robot het 'ervaart' als hij van zijn sensoren doorkrijgt dat er iets mis is. Misschien is dat wel te vergelijken met onze pijn. Citaat:
|
^ Waarschijnlijk zijn we wel zo arrogant te stellen dat alleen wij mensen echt kunnen nadenken, voelen, liefhebben enz.
|
Ik ieder geval niet. Ik heb het over dieren. (y)
|
Citaat:
|
Bas Haring (n)
|
Waarom (n), MickeyV?
|
Onderbuik gevoel. Die kerel deugt niet. Niet kosjer! Pas op. :o :D
|
Citaat:
|
Citaat:
|
Citaat:
Citaat:
|
Alle tijden zijn GMT +1. Het is nu 00:01. |
Powered by vBulletin® Version 3.8.8
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.