Advertentie | |
|
05-07-2006, 09:29 | ||
Verwijderd
|
Citaat:
|
05-07-2006, 12:26 | ||
Verwijderd
|
Citaat:
|
05-07-2006, 12:38 | ||
Verwijderd
|
Citaat:
|
05-07-2006, 13:17 | ||
Citaat:
__________________
Welcome to your mom's house!
|
05-07-2006, 15:51 | ||
Verwijderd
|
Citaat:
|
05-07-2006, 19:20 | ||
Citaat:
__________________
Disgustibus non est disputandem
|
05-07-2006, 22:02 | ||
Verwijderd
|
Citaat:
|
06-07-2006, 11:13 | |
Dat is al redelijk goed mogelijk, afaik. Maar Alicia heeft wel gelijk: je kunt weliswaar een AI programmeren die op een zekere input dezelfde processen uitvoert als een levend organisme -specifiek: een dier- en dus inzoverre een volledige simulatie uitvoert, maar het echte "waarderende" aspect is -vooralsnog?- exclusief dierlijk.
Illustratief is het volgende citaat: "Psychiatric lexicons contain the term alexithymia for the condition of certain people who cannot describe or recognize emotions, who are able to define them 'only in terms of somatic sensations or of behavioral reaction rather than relating them to accompanying thoughts.' Such people are handicapped by their inability to understand what feelings are. It is curious that the study of animal behavior should demand that its practitioners turn themselves into alexithymics." http://en.wikipedia.org/wiki/Emotion_in_animals Weliswaar is de context een andere dan die welke hier van belang, maar het punt is: AI-emotie kán alleen maar "somatic sensation" en "behavioural reaction" zijn. |
06-07-2006, 14:20 | ||||
Citaat:
Citaat:
Citaat:
__________________
Welcome to your mom's house!
Laatst gewijzigd op 06-07-2006 om 14:23. |
Ads door Google |
06-07-2006, 23:32 | ||
Citaat:
Zoals JCG zegt bestaat programmatuur uit regels, als jij wil dat bepaalde handelingen niet worden uitgevoerd hoef je dat enkel te coderen. |
06-07-2006, 23:45 | ||
Citaat:
Je moet trouwens goed beseffen dat pijn subjectief is : het is niet pijnlijk, maar het voelt wel zo aan. Je kan dus nooit een machine bouwen waarvan je zegt "dit kan pyn voelen" want dat kan je nooit bewyzen. Ook als ik een kloon van myzelf maak door molecule voor molecule na te bouwen (een biomachine dus) kan ik nooit zeker zyn dat die machine pyn heeft, ook al reageert hy op exact dezelfde manier als ik als er kokend water op de hand wordt gegooid. Er is dus geen wezenlyk verschil tussen machines en 'levende' wezens. Je kan immers geen moment of plaats aanduiden waarop een pynprikkel overgaat tot een mentale gewaarwording. Als je een machine complex genoeg maakt (of laat evolueren) zal het pyn voelen, immers, biomachines kunnen het ook. btw : is Alicia Silverstone geen pornoster ? |
07-07-2006, 00:22 | ||
.
Citaat:
|
07-07-2006, 08:45 | ||
Citaat:
|
07-07-2006, 11:55 | ||
Verwijderd
|
Citaat:
|
Advertentie |
|
07-07-2006, 12:56 | ||
Citaat:
__________________
Welcome to your mom's house!
|
07-07-2006, 12:57 | ||
Citaat:
p. 89: "Im Gegensatz zu natürlichen Systemen jedoch sind Rechner weder zu selbst ausgebildeten Bewertungskriterien noch zu emotionsbasierten Bewertungen imstande (voetnoot: Eine Simulation hilft hier auch nicht weiter, dennn simulierte Emotionen sind eben keine echten Emotionen, und eine simulierte emotionale Bewertung kann so auch keine wirklich affektive sein). Dieser Unterschied verhindert so wichtige 'Begleiterscheinungen' wie das Einfühlungsvermögen, Skepsis oder Freude, so dass Elektronengehirne rein rationale kognitive Systeme sind, deren Urteilsvermögen nicht affektiv 'getrübt' ist. p. 91, waar het gaat over de motorische reacties van AI als output op een zekere externe/interne input: "Das eigentliche Problem besteht auch hier in deren (=van die motorische [re]acties) Ansteurung: Die Aktion selbst sollte nicht willkürlich vonstatten gehen, sondern irgendeinem Plan der Maschine folgen, die damit ein bestimmtes Ziel zu erreichen trachtet. Die 'Handlungen' des Rechners haben intentional zu sein im Sinne der Zweckgerichtetheit der Handlungen und im Sinne der Vorsätzlichkeit des Computers. Ein entsprechendes Programm zur intelligent-intentionalen Steuerung von z. B. Robotern zu entwickeln ist geradezu die Sisyphusaufgabe der Künstlichen Intelligenz." En in 't algemeen over de stand van AI onderzoek, ook wel aardig om even te lezen: p. 90, voetnoot 15: Vergessen Sie alles, was Sie in verschiedenen Zeitungen, Zeitschriften und wissenschaftlichen Berichten darüber gelesen oder gesehen haben: Das meiste des von den Wissenschaftlern Geäußerten dient lediglich der Sicherung finanzieller Mittel. Je weiter man sich aus dem Fenster lehnt, desto mehr Geld glaubt man einstreichen zu können. 95 % des Gesagten ist schlicht Unsinn. Es wird weder Gehirnscanner geben, die Ihren Gehirngehalt auf Festplatte abspeichern, noch echt affektiv handelende Roboter, noch superintelligente Maschinen, die dann die Menschheit ausrotten. (Die Gentechniker werder hier garantiert um einiges schneller sein, darüber sollten Sie sich Gedanken machen!)" |
07-07-2006, 12:57 | ||
Citaat:
|
07-07-2006, 12:58 | ||
Citaat:
|
07-07-2006, 15:38 | ||
Verwijderd
|
Citaat:
|
07-07-2006, 21:49 | |||
Verwijderd
|
Citaat:
Hoe weet je of biomachines het kunnen, ik heb de omschrijving van een biomachine (die je een stukje naar boven gaf) gelezen en die dingen bestaan nog helemaal niet (uitgezonderd een of ander minibeest). Citaat:
De stukjes uit het boek die je hier gequote hebt vertellen iets over de mening van de schrijver, nl dat computers geen emoties kunnen hebben en dat een computer alleen een motorische reactie geeft vanuit een voorgeprogrammeerd doel. Blijkbaar vindt hij dat dat bij de mens heel anders in elkaar zit (ik neem aan dat hij vindt dat mensen een vrije wil hebben). Wat ik dan wel interessant had gevonden om te weten, is waarom de schrijver dat zo vindt, want de argumenten ontbreken. Ik neem aan dat dat wel ergens anders in het boek zal staan. |
07-07-2006, 22:44 | ||||
Citaat:
Eh, dat kost natuurlijk wel extra tijd. Bij een taal als Duits is dat toch niet echt nodig? Citaat:
Hij neemt niet aan dat mensen vrije wil hebben. De kwestie van de vrije wil wordt niet gethematiseerd, maar gegeven het feit dat de auteur graag parallellen trekt tussen de menselijke geest en een computer -en in dat verband de parallel tussen een computertaal en een mensentaal- is het bepaald onaannemelijk dat hij mensen een vrije wil toedicht. Zeker, emoties en spontaan doelgericht handelen, zoals bij mensen, kunnen op een computer niet werkelijk gerealiseerd worden, maar dat heeft met vrije wil niks te maken. Citaat:
|
08-07-2006, 14:47 | ||
Citaat:
|
08-07-2006, 14:50 | ||
Citaat:
|
08-07-2006, 17:43 | ||
Citaat:
|
08-07-2006, 19:26 | ||
Citaat:
|
Ads door Google |
08-07-2006, 19:30 | ||
Citaat:
|
08-07-2006, 22:55 | ||
Citaat:
Om de vraag te beantwoorden of machines ooit pijn kunnen lijden, moet je eerst een duidelijke definitie van pijn hebben. Pijn zal vaak worden gedefineerd als een "onaangenaam gevoel" of iets dergelijks. Je zou kunnen zeggen dat mensen zich altijd zo aangenaam/prettig/gelukkig mogelijk proberen te voelen. Als er iets gebeurt wat je pijn doet, kun je dat zien als een soort alarm (daarom schrik je zo en reageer je zo panisch). Er zijn genoeg computerprogramma's die een functie proberen te maximaliseren. Als die functie maximaal/hoog is, zou je min of meer kunnen zeggen dat het programma gelukkig is. Als er iets pijnlijks gebeurt, wordt dat opgemerkt door de sensoren en kun je iets implementeren waardoor je machine meteen stopt met waar hij mee bezig is (hij schrikt) en er iets aan gaat doen. Dat laatste is misschien rationeler dan wat mensen doen, maar je kunt je ook afvragen waarom wij min of meer panisch reageren als iets pijn doet. Misschien weten we zo snel niet wat we moeten doen (inefficiënt planningsalgoritme), of misschien is het wel omdat we dan beter leren dat we in het vervolg moeten zorgen dat het niet meer gebeurt (en dat lijkt me ook wel te implementeren). Uiteindelijk denk ik dat pijn in (levende) organismen bedoeld is als een signaal van het lichaam naar de hersenen dat er iets mis is en dat daar iets aan gedaan moet worden (en eventueel dat er geleerd moet worden om het te voorkomen). Mensen "doen er iets aan" door te schrikken, snel hun hand terug te trekken, langere tijd een onprettig gevoel te hebben (sneller kloppend hart enzo), te leren dat ze in het vervolg beter op moeten letten en eventueel door naar de dokter te gaan. Machines "doen er iets aan" door te stoppen waar ze mee bezig waren, snel hun hand (oid) terug te trekken, te leren dat ze het voortaan moeten voorkomen en eventueel door het aan te geven bij hun maker. Of dat fundamenteel anders is, weet ik niet...
__________________
Mommy, that salesman's on TV!
|
09-07-2006, 11:17 | ||
Citaat:
Er bestaan bijvoorbeeld al robots die zelf leren en tot oplossingen komen. Zo heb je een zwerm robotjes die een object moet vinden in een doolhof. Allereerst schieten die robotjes alle kanten uit, als een bepaalde route tot niks leidt geeft een robotje dit door aan de andere robots die zullen deze route niet meer volgen. Als het object wortd gevonden wordt dit eveneens doorgegeven aan de andere robots. De eerst volgende keer dat je deze zwerm robotjes op het doolhof loslaat wordt direct het object gevonden. Ofwel de robotjes hebben uitzichzelf iets geleerd. Nu zijn wij instaat heel wat complexere handelingen te verrichten, maar ons hersenen (programmatuur) stelt ons instaat om te handelen. Dat blijkt ook, want als iemand hersenschade heeft kan het bepaalde handelingen niet verrichten. Veel mensen zien emotie, spontaniteit etc etc iets dat buiten het lichamelijke (organische --> hersenen) staat. Maar dat is niet zo, emotie hoort tot bepaalde "delen" van de hersenen, al die delen bij elkaar noemt men het limbisch systeem. Zonder amygdala (kern limbisch systeem) --> geen emotie. Ofwel ook emotie is wel degelijk ergens "voorgeprogrammeerd", alleen de scenario's net als het bovengegeven voorbeeld met die robotjes zijn niet ingeprogrammeerd. Men spreekt niet voor niks over biologische aanleg... En emotie zou je als een soort ruis in computers kunnen implementeren. Met ruis bedoel ik een reactie nadat een computer een signaal detecteerd. Een reactie waarbij er enige storing (ruis optreedt) binnen het systeem, bijvoorbeeld meer energeie verbruik om maar wat te noemen. Laatst gewijzigd op 09-07-2006 om 11:20. |
09-07-2006, 16:51 | |||
Citaat:
Ik denk dat we de neiging om in dit geval te zeggen: "Hij/Het reageert zo omdat op regel 1.434.671 van zijn programma staat dat 'if (heatsensorOverload) then start panic-routine', dus dat is heel iets anders dan dat hij ook echt pijn voelt". Dus omdat we precies weten waarom een robot iets doet, vinden we gelijk dat alles wat hij doet logisch/rationeel/voorgeprogrammeerd/etc. is en dus niet emotioneel. Dat lijkt me niet per se een goede conclusie, omdat wij misschien ook wel voorgeprogrammeerd zijn (min of meer). Bovendien lijkt het wel zo dat wij precies weten waarom een robot iets doet, maar misschien is dat wel helemaal niet zo. Wij kunnen bijvoorbeeld in principe niet weten hoe een robot het 'ervaart' als hij van zijn sensoren doorkrijgt dat er iets mis is. Misschien is dat wel te vergelijken met onze pijn. Citaat:
__________________
Mommy, that salesman's on TV!
|
11-07-2006, 17:17 | ||
Citaat:
|
12-07-2006, 22:59 | ||
Verwijderd
|
Citaat:
|
13-07-2006, 09:21 | ||
Verwijderd
|
Citaat:
|
13-07-2006, 11:03 | |||
Citaat:
Citaat:
|
Advertentie |
|
|
|
Soortgelijke topics | ||||
Forum | Topic | Reacties | Laatste bericht | |
Games |
CoD4: Modern Warfare CaptainCaveman | 52 | 25-08-2008 08:17 | |
Games |
Lord of the Rings: Battle for Middle-earth Verwijderd | 63 | 28-08-2005 20:42 | |
Levensbeschouwing & Filosofie |
Ramadan ibrahim | 309 | 27-11-2004 09:47 | |
Games |
Star Wars: Battlefront Obi Wan | 4 | 22-09-2004 02:40 |