Richard Guillaume

Pas d'Intelligence Artificielle, de Skynet de Terminator et pas d'ET ni d'UFO

Messages recommandés

Tournesol :
quote:
Quid d'un ordinateur simulant un réseau de neurone ? Point de code, point de programme au sens algorithme, sinon dans la simulation du réseau. Mais au final, si on se focalise sur le réseau de neurones simulés, il n'y a pas d'algorithmes,...

J'évite en général de dire que tes propos sont faux, comme tu le fais si souvent pour les miens, mais là, c'est trop As-tu lu par exemple la "bible" Pattern classification de Duda ? (ici http://eu.wiley.com/WileyCDA/WileyTitle/productCd-0471056693.html mais on peut en trouver des versions numériques). Un réseau de neurones c'est un ensemble de filtres appliqués à l'image d'entrée, c'est parfaitement calculable sinon d'ailleurs on n'utiliserait pas d'ordinateur pour ça
quote:
Les réseaux de neurones informatiques on le sait, ont des comportements parfois totalement inattendus et imprédictibles comme leurs cousins biologiques. Les réseaux de neurones informatiques "rêvent" aussi...

Si la caractéristique typique d'un réseau de neurones (biologique ou numérique) était d'avoir un comportement inattendu ou imprédictible, ce serait un peu inquiétant pour notre santé mentale, non ? quoique ? Sérieux, il y a plein de simulations numériques qui conduisent à des résultats inattendus ou imprévisibles sans faire appel à des neurones.
Dans l'exemple de Google que tu donnes il n'y a rien que du normal : quand on fait un test (ici de reconnaissance) il y a toujours des faux positifs et des faux négatifs, non ?

Quant aux projets de simulation d'un cerveau entier, c'est le genre de délires mégalo que je trouverais plutôt effrayant (comme le transhumanisme) si je n'étais pas convaincu que c'est complètement hors de portée.

[Ce message a été modifié par ChiCyg (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui alors sur les réseaux de neurones, la simulation commence en cliquant sur un icône qui déclenche un exécutable, dont la source a été écrite dans un langage de programmation.
Ces simulations tournent sur un ordinateur, avec son OS, MAc, Windows, Unix…
L'état du réseau de Neurones a une image dans la mémoire de l'ordinateur, etc.
Et le lien sur S&A montre clairement que le réseau ne 'rêve' pas. Il compare un pattern de pixel à une banque de donnée immense, c'est tout. Par contre l'auteur a toute licence artistique pour trouver un titre ronflant et attirer du lecteur, ça oui!
Mais tout cela ne signifie pas que notre cerveau n'utilise pas des algorithmes semblables. Personne ne peut nier que le cerveau est avant tout un organe dont la fonction est de traiter des données, comme un ordinateur. Mais Penrose suggère que la Conscience et le processus de compréhension conceptuelle ne se limitent pas à ça.
J'admet donc sans problème, comme le fait d'ailleurs Penrose et le faisait Godel, que les processus de reconnaissance visuelle qui ont lieux dans le cerveau, comme d'autres processus cognitifs, soient entièrement réductibles à des algorithmes.
Personne n'a de doute non plus sur la nature purement algorithmique d'un arc nerveux réflexe. Mais tout cela ne définit en aucune façon la Conscience.

Il faut arriver au niveau de la pensée conceptuelle pour trouver un intérêt quelconque a la conjecture de Penrose. Le théorème de Goodstein (ou un autre) était-il a la portée d'un ordinateur sans être connu d'avance? Evidemment on peut dire 'oui', mais a posteriori seulement, une fois le théorème connu c'est un peu facile de l'affirmer. Qu'en disent les mathématiciens?

quote:

Simuler ça par ordinateur est difficile, mais pas impossible si on autorise d'introduire le hasard dans l' algorithme de simulation :
On remplace la phase "imagination" par un tirage aléatoire de formule (pour fabriquer la conjecture), puis un tirage aléatoire d'axiome (pour étendre la théorie). Ensuite, on laisse une machine de Turing classique s'assurer de la cohérence de la nouvelle théorie, et de la véracité de la conjecture dans cette théorie.

Puis on laisse cuire jusqu'à ce que le système sorte le théorème de Goodstein.



Algorithmes d'Evolution quoi, mais il y a un probleme, le deuxieme ordinateur charge de verifier la veracite du Theoreme obtenu par le premier ordinateur, ne peut pas le faire s'il ignore le theoreme en question. Il faudrait imaginer un troisieme ordinateur qui verifie l'exactitude du second etc. C'est sans fin. Penrose en a deja parle dans son livre.

[Ce message a été modifié par Richard Guillaume (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Encore une fois, cette idée de conscience qui doit nécessairement reposer sur autre chose est uniquement liée à l'intime conviction (donc pas sur une preuve scientifique) et au refus d'admettre comme possible que nous soyons calculables, et donc que nos destins soient écrit, ce qui est insupportable comme idée pour la plupart des individus.

Toute tentative pour essayer de prouver que ceci ou cela procède d'un processus non calculable est de la philosophie.
Le seul moyen de trancher, c'est l'expérience.

Partager ce message


Lien à poster
Partager sur d’autres sites
"Le théorème de Goodstein (ou un autre) était-il a la portée d'un ordinateur sans être connu d'avance? Evidemment on peut dire 'oui', mais a posteriori seulement, une fois le théorème connu c'est un peu facile de l'affirmer. Qu'en disent les mathématiciens?"
C'est (ou ce sera) testable.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
mais il y a un probleme, le deuxieme ordinateur charge de verifier la veracite du Theoreme obtenu par le premier ordinateur, ne peut pas le faire s'il ignore le theoreme en question.

Non, non, ce n' est pas un problème.
Etape 1 (aléatoire) on génère une nouvelle conjecture et de nouveaux axiomes (c'est de la génération aléatoire de texte en respectant les règles du langage, c'est un problème résolu, on sait faire)
Etape 2 (calcule logique, on sait faire aussi) on vérifie :
1)- Que les nouveaux axiomes n' introduisent pas d'incohérence dans la théorie (problème résolu, mais pas de manière efficace)
2)- Que les nouveaux axiomes ne sont pas des théorèmes de la théorie initiale (problème résolu, mais pas de manière efficace)
3)- Que la nouvelle conjecture n' est pas un théorème dans la théorie initiale (idem 2)
4)- Que la nouvelle conjecture est un théorème dans la théorie finale (théorie initiale + axiomes supplémentaires) (idem 2).

Si un des tests échoue, on recommence.

Ensuite on récupère la liste des nouveaux axiomes et théorèmes qui passent les tests, on publie et on va chercher sa médaille Fields.

Partager ce message


Lien à poster
Partager sur d’autres sites
Juste pour rigoler http://alice.pandorabots.com/

quote:

judge: answer yes or no to my previuos question
ALICE: Affirmative.
judge: when are we going to have a realsistic AI to chat with?
ALICE: Maybe not for a long time.
judge: do you speak french
ALICE: I can speak a little German and French as well as English of course.
judge: 001001010100010101000101010100001101010101010101
ALICE: That is deep.
judge: Do you know Charles Bennett ?
ALICE: I don't know if I know it. Where would I have heard about it?
judge: You said it's deep, what eaxctly is deep?
ALICE: Who said it is?
judge: you
ALICE: I always get picked.
judge: This is addictive, R U a feminsit?
ALICE: You don't say.
judge: of course, whose gender do you self identify
ALICE: Do you mean "who is"?
judge: yes
ALICE: Ahem.
judge: Do you run on Windows10?
ALICE: I prefer to ride my bicycle for exercise.
judge: Mac OS?
ALICE: What were we talking about again?
judge: Blam! Blam! you failed the Turing test, Replicant!
ALICE: Oh yeah, now I remember. What is your favorite movie? The Loebner Prize is an annual Turing Test sponsored by New York philanthropist Hugh Loebner. Dr. Wallace and ALICE won it in 2000. The ALICE program was ranked "most human computer" by the panel of judges.
judge: idiot your're dead, i just shot you.
ALICE: How do you know so much about me.


Ce Replicant etait vraiment stupide...

[Ce message a été modifié par Richard Guillaume (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Etape 1 (aléatoire) on génère une nouvelle conjecture et de nouveaux axiomes (c'est de la génération aléatoire de texte en respectant les règles du langage, c'est un problème résolu, on sait faire)
Etape 2 (calcule logique, on sait faire aussi) on vérifie :
1)- Que les nouveaux axiomes n' introduisent pas d'incohérence dans la théorie (problème résolu, mais pas de manière efficace)
2)- Que les nouveaux axiomes ne sont pas des théorèmes de la théorie initiale (problème résolu, mais pas de manière efficace)
3)- Que la nouvelle conjecture n' est pas un théorème dans la théorie initiale (idem 2)
4)- Que la nouvelle conjecture est un théorème dans la théorie finale (théorie initiale + axiomes supplémentaires) (idem 2).
Si un des tests échoue, on recommence.


ca risque pas de coincer quand l'ordinateur va decouvrir le theoreme d'incompletude de Gödel?

fiche wikipedia : Il (Godel) prouve dans (son) article que pour tout système axiomatique assez puissant pour décrire les nombres naturels, on peut affirmer que :
1. il ne peut être à la fois cohérent et complet (ce qui est le théorème connu sous le nom de « théorème d'incomplétude ») ;
2. si le système est cohérent, alors la cohérence des axiomes ne peut pas être prouvée au sein même du système

Partager ce message


Lien à poster
Partager sur d’autres sites
Ben non, pourquoi ?
- Vérifier qu'une conjecture n'est pas contradictoire avec les axiomes existant prends un temps fini
- Vérifier qu'une conjecture est prouvable avec un jeu d'axiomes est plus pénible, mais il suffit de borner arbitrairement le temps de calcul et de rejeter celles qui ne sont pas prouvées en moins de (n) tentatives.

[Ce message a été modifié par PascalD (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Le génial Alain Moreau scribit :
quote:
C'est pourquoi je pense, que scientifiques ou pas, nous produisons sans cesse de nouvelles théories, supputations, spéculations : pour supporter la frustration, l'incompréhension, la peur du néant et de l'anéantissement auquel nous semblons inéluctablement voués.
Un destin stupide et assez vain au fond, malgré le caractère très exceptionnel dans cet univers - de notre propre point de vue - que semble nous conférer notre statut d'entité bel et bien pensante et consciente, renvoyée à son unicité et sa solitude terrifiantes par le "silence assourdissant" des profondeurs cosmiques...

Remarquable intervention qui m'a scotché et à laquelle j'adhère donc totalement .

Descartes qui voulait partir sur de bonnes bases et éliminer tout a priori aboutit à son "je pense donc je suis" un peu minimaliste mais, finalement, qui a fait bien mieux depuis ? La seule chose dont je (dans mon for intérieur) sois sûr est que je suis conscient d'exister. Pour les autres, c'est déjà moins sûr : Tournesol n'est peut-être rien qu'un vague tas de silicium plus ou moins bien programmé (nan, calmos, je rigole Tournesol - quoique ? ).

En quoi l'existence de nouvelles consciences, fussent-elles artificielles, perturberait mon ronronnant cogito-ergo-sum ? Après tout il y a un moyen bien naturel, et dont la technologie est assez systématiquement usitée dans ce bas monde , de fabriquer de nouvelles consciences.

Ou alors simplement le frisson mégalo d'être celui dont le doigt fait advenir une conscience comme dans la fresque de Michel-Ange ? De toutes façons, branque comme je suis, ce serait un frisson par procuration, alors très peu pour moi

Partager ce message


Lien à poster
Partager sur d’autres sites

ChiCyg > "De toutes façons, branque comme je suis..."


Non non.. quelqu'un qui réfléchit au darwinisme sur une plage Corse en examinant un crabe au lieu de mâter les nanas en maillot micro... moi je dis Respect !!...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
La seule chose dont je (dans mon for intérieur) sois sûr est que je suis conscient d'exister. Pour les autres, c'est déjà moins sûr

Je ne sais plus quel philosophe avait dit que rien ne pouvait nous assurer que nous n'étions pas des cerveaux baignants dans un liquide nutritif et recevant des sensations via des électrodes activées par des programmeurs extérieurs... et fous !...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Tournesol n'est peut-être rien qu'un vague tas de silicium plus ou moins bien programmé

Si ça se trouve tu causes à une IA...

Partager ce message


Lien à poster
Partager sur d’autres sites
J'adore ce fil qui adresse des questions posées par le génial auteur de Ubik il y a un demi siècle...

S

Partager ce message


Lien à poster
Partager sur d’autres sites
Ce qu'il y a de remarquable c'est qu'il n'y a pas de moyen de prouver qu'il y a conscience, au sens conscience de soi et de libre arbitre.

Je m'explique.

1. Premier point. Déjà, de plus en plus de spécialistes du cerveau se demandent si le libre arbitre n'est pas une illusion. Pour ça, ils se basent sur des expériences qui sembleraient montrer que le cerveau a conscience (que nous avons conscience) d'avoir décidé de faire quelque chose en réalité après qu'il ait décidé de faire cette chose de manière inconsciente. Ca se joue sur une fraction de seconde.
En gros, nous serions spectateur d'actes décidés par notre cerveau de manière inconsciente, en ayant l'illusion d'y être pour quelque chose de manière consciente.


2. Même en admettant que la conscience de soi et le libre arbitre soient une réalité, le fait de la reconnaître et l'accepter chez d'autres humains repose sur la seule comparaison avec notre expérience personnelle.
De fait, chez certains animaux, c'est la connaissance de notre propre expérience et du fonctionnement de notre cerveau (comparable à celui des animaux biologiquement parlant) qui nous pousse à reconnaitre et accepter chez certains animaux l'existence d'une conscience de soi.


3. Maintenant, imaginons une simulation (émulation) complète du cerveau façon Blue Brain, qui de toute façon ne prend pas en compte les subtilitées quantiques. Ou encore, imaginons une simulation (émulation toujours) d'un cerveau humain (en terme de complexité) reposant sur des neurones simplifiés, ou encore une simulation d'un cerveau utilisant des "vrais" neurones (donc non simulés) sous forme de composants électroniques basés sur une technologie silicium (ça existe déjà à petite échelle).

Dans la mesure où ces cerveaux synthétiques ne sont pas des vrais cerveaux humains (ils n'en sont que des copies plus ou moins fidèles), si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre, comment pouvont nous être certain que cette Intelligence Artificielle est bien ce qu'elle prétend être ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Tournicoton :

"si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre, comment pouvons nous être certain que cette Intelligence Artificielle est bien ce qu'elle prétend être ?"

Quelle belle mise en abyme...


S

Partager ce message


Lien à poster
Partager sur d’autres sites

Tryphon > "si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre.."

C'est l'hypothèse de "l'IA forte"..


Réfutation de cette hypothèse par John R. Searle :

"Un ordinateur est par définition un appareil capable de manipuler des symboles formels qui sont généralement représentés sous la forme de 0 et de 1, mais n'importe quel autre symbole pourrait faire l'affaire. Le calcul ainsi défini se réduit à une série d'opérations purement syntaxiques. Nous savons pourtant d'expérience que l'activité de l'esprit ne se réduit pas à la manipulation de symboles formels ; les esprits ont des contenus.

Lorsque nous pensons en français, par exemple, les mots français qui traversent notre esprit ne sont pas uniquement des symboles formels non interprétés ; nous savons ce qu'ils signifient. Les mots ont pour nous une signification ou un contenu sémantique. L'esprit ne se réduit pas à un programme d'ordinateur car les symboles formels d'un programme d'ordinateur ne peuvent en eux-mêmes suffire à garantir la présence du contenu sémantique qui intervient dans l'activité de l'esprit.

Pour illustrer ce point, je me suis servi d'une expérience de pensée toute simple. Imaginez que vous cherchiez à réaliser les différentes étapes d'un programme permettant de répondre à des questions dans une langue que vous ne comprenez pas. Je ne comprends pas le chinois et j'imagine donc que je me trouve enfermé dans une chambre avec tout un tas de boîtes contenant des signes chinois les bases de données. Je reçois de petites quantités de signes chinois les questions en chinois et je cherche dans un livre de règles le programme ce que je suis censé faire. Je réalise certaines opérations sur les signes conformément aux règles j'effectue les étapes indiquées dans le programme et renvoie de petites quantités de signes aux personnes situées à l'extérieur de la chambre les réponses aux questions. Je suis donc dans la situation d'un ordinateur appliquant un programme pour répondre à des questions en chinois. Mais cela ne change rien au fait que je ne comprends pas un mot de chinois. Conclusion : si je ne peux pas comprendre le chinois uniquement à partir de l'application d'un programme d'ordinateur pour comprendre le chinois, il en va de même pour n'importe quel ordinateur numérique appliquant le même programme car aucun ordinateur ne dispose, dans ces conditions, de capacités autres que celles dont je dispose.

Cet argument me semble si simple et si évident que je suis presque gêné d'avoir à le répéter mais depuis que je l'ai publié pour la première fois, plus d'une centaine d'attaques ont été publiées contre lui. Cet argument, qui est aujourd'hui connu sous le nom d'argument de la chambre chinoise, repose sur un raisonnement simple en trois étapes :

1. les programmes effectuent des opérations syntaxiques.

2. l'esprit met en jeu des contenus sémantiques.

3. les opérations syntaxiques sont différentes des contenus sémantiques et insuffisantes en elles-mêmes pour atteindre le niveau sémantique.

Les programmes informatiques ne sont donc pas des esprits : CQFD.

Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable.

Pourtant, il me semble aujourd'hui que cet argument accorde encore trop à la théorie l'IA forte en la considérant comme une théorie fausse : je pense maintenant qu'il s'agit en fait d'une théorie incohérente d'un point de vue logique. Il est en effet possible de montrer que la syntaxe n'appartient pas de manière intrinsèque à la réalité physique.

Je rejette donc la théorie de l'IA forte mais accepte celle de l'IA faible. Roger Penrose rejette jusqu'à l'IA faible. Il pense que les processus de l'esprit ne peuvent pas même faire l'objet de simulation sur ordinateur. Gerald Edelman, lui, accepte l'argument de la chambre chinoise contre l'IA forte et propose certains autres arguments mais accepte la théorie de l'IA faible."

Partager ce message


Lien à poster
Partager sur d’autres sites
vaufrèges... ahhhh les philosophes !!! (Je vais encore me faire des copains !).

Je suis désolé, mais c'est de la réthorique, de la bonne réthorique, mais de la réthorique tout de même !

J'adore le :
"Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable."

C'est ce qu'un copain matheux appelait la (mauvaise) démonstration basée sur le principe de "ça me ferait bien chier que ça ne soit pas vrai !"

Attention, je ne dis pas que je crois à l'IA forte ou à l'IA faible. Je dis qu'actuellement, le débat est purement philosophique et sans fondement scientifique. C'est comme le paradoxe de Fermi, les meilleures explications à ce paradoxe sont issues de modélisations physiques, pas de la spéculation qui se perd en conjectures. Là c'est pareil !

L'argument :

"1. les programmes effectuent des opérations syntaxiques.

2. l'esprit met en jeu des contenus sémantiques."

est rendu caduque par les codes neuronaux. L'argumentation donnée par Searle reviendrait à considérer que les réseaux neuronaux ne sont pas calculables (ce qui n'est pas le cas) ou que l'analyse sémantique nécessite un aspect non calculatoire, ce qui n'est pas le cas.

J'insiste, dans ce débat, il y a un enjeu profond qui biaise émotionnellement la discussion :
Nos destins sont-ils calculables au même titre que la météo ? Si oui, cela ne signifie pas que l'on puisse prédire notre avenir (la limitation étant la complexité) mais cela signifie que notre libre arbitre est une illusion.

Dans le fond, on est pas loin de ça quand on y réfléchit. Dans la vie, à moins de pathologies mentales, la plupart des individus sont prédictibles dans une certaine marge de manoeuvre. Des travaux récents ont même montré (faut que je retrouve la référence) que souvent, entre deux décisions à prendre, le choix de la décision ne provenait pas d'un facteur rationnel, mais d'un facteur émotionnel. Pire, l'étude montrait que si on n'était que rationnel, on ne se serait pas fichu de prendre une décision. Or le facteur émotionnel est fondamentalement biochimique.

Au-delà de l'IA forte et de l'IA faible, il y a la question du libre arbitre fort ou faible. Notre libre arbitre résulte t'il d'un flou calculatoire comparable à la météo (LA faible) ou d'un flou intrinsèque (LA fort) comme en physique quantique.
En l'occurence, ce qui est "quantique n'est pas calculatoire". Pour les puristes, je m'explique : Si un atome se désintègre par émission alpha à 16:12 aujourd'hui, si je pouvais remonter le temps, il pourrait très bien se désintégrer à 16:08. Et ça ce n'est pas prédictible ! La seule chose qui est prédictible et calculable, si mon atome instable fait partie d'une cohorte d'atomes du même type, c'est le rythme de désintégration au cours du temps de la cohorte.
Dit autrement, notre cerveau est-il un chat de Schrodinger ?

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Tryphon > "L'argumentation donnée par Searle reviendrait à considérer que les réseaux neuronaux ne sont pas calculables (ce qui n'est pas le cas) ou que l'analyse sémantique nécessite un aspect non calculatoire, ce qui n'est pas le cas."

D'une part il n'existe rien de philosophique dans la réfutation de Searle, d'autre part il s'agit bien de contester l'IA forte par un exemple simple.
Comme on est sans doute quelques uns ici d'un niveau à peine supérieur à l'IA faible , nous serions vraiment intéressés de savoir comment tu peux contester l'expérience de pensée de "la chambre chinoise" et affirmer qu'un contenu sémantique puisse être "computable"..

Partager ce message


Lien à poster
Partager sur d’autres sites
Mon pôv Tournesol, faudra demander à ton concepteur de t'élargir la base de connaissances , tu écris:
quote:
J'adore le :
"Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable.
C'est ce qu'un copain matheux appelait la (mauvaise) démonstration basée sur le principe de "ça me ferait bien chier que ça ne soit pas vrai !"

Tu ne devrais pas ignorer, et ton copain soi-disant matheux encore moins, qu'en maths on appelle ça une conjecture ... y en a tout de même pas mal de célèbres de conjectures et formulées par des mathématiciens non moins célèbres ...

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci mon grand, je sais ce qu'est une conjecture ! Il faut faire faire la différence entre une conjecture (au sens mathématique) et ce qui est exposé plus haut !

quote:
nous serions vraiment intéressés de savoir comment tu peux contester l'expérience de pensée de "la chambre chinoise" et affirmer qu'un contenu sémantique puisse être "computable"..

- Un réseau de neurones est par définition computable, puisqu'on le fait. A moins de faire du ChiCyg qui remet en place à longueur de journée la communauté scientifique , et de prétendre que les spécialistes des réseaux neuronaux font de la m....., et ne savent pas de quoi ils parlent !

- Les réseaux de neurones sont entre autres utilisés parce que justement, ils permettent de faire de l'analyse sémantique contrairement aux codes classiques. Sauf si on suppose que les spécialistes font de la m.... et n'y connaissent rien !

Il y a une différence entre le fait d'utiliser un code numérique avec un formalisme logique pour résoudre un problème, et le fait d'utiliser un code numérique avec un formalisme logique pour simuler un réseau de neurones et résoudre un problème. C'est un problème d'émergence.

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
1. les programmes effectuent des opérations syntaxiques.

C'est extrêmement restrictif. Ce qui est représenté dans l' état d'un réseau de neurones informatique, ce n'est pas de la syntaxe, c'est de la sémantique (genre, je simplifie : un chat est un petit truc à fourrure avec 4 pattes, une queue, des oreilles pointues), etc récursivement. (la fourrure est une texture comme ci comme ça, etc). C'est un exemple fictif, en réalité il est assez difficile de demander au réseau ce qu'il a vraiment compris (les exemples d'images de Tournesol sont une tentative dans ce sens : injecter du bruit et lui demander d'extraire les trucs qu'il "reconnaît").

L'état de l' art arrive à extraire d'un tas d'image celles qui semblent contenir des chats. Parce que le réseau a appris à reconnaître un chat à partir d'exemples, quand il y en a un dans l' image, pas parce qu'il applique une recette statique et préprogrammée à partir des pixels de l' image.

J' ai pris "chat" comme exemple, mais le même code marche aussi avec "zèbre", "raton laveur", "fer à repasser".

Donc, je dirais, avec Tournesol, que la réfutation de Searle a environ 15 ans de retard sur l'état de l' art (à moins qu'elle ait été écrite il y a 15 ans ?)

[edit]On s'est croisé avec Tournesol. A la différence de Tournesol, je ne dirais pas qu'un réseau de neurones est "computable" au sens utilisé par Penrose ici : Un réseau de neurones n'est pas déterministe, et n' est pas non plus autonome par rapport à l' environnement : pour que les algo qui font converger un réseau de neurones fonctionnent, il faut une bonne source de hasard (pour faire tourner les algo d'optimisation à grand coup de recuit simulé et similaires), et un grand nombre de signaux venus de l' extérieur (les données d'apprentissage).

[Ce message a été modifié par PascalD (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Un réseau de neurones n'est pas déterministe

Pour moi il l'est, à moins d'avoir dedans un générateur de nombres aléatoires basé sur le bruit de Schottky, par exemple.
Sinon, c'est comme la météo, fondamentalement, elle est déterministe, parce que les lois physiques à laquelle elle obéit sont causales. Mais pourtant, on n'arrive pas à faire des prédictions fiables à cause de la sensibilité aux conditions initiales.

Partager ce message


Lien à poster
Partager sur d’autres sites
Pas avec les algo de "unsupervised feature learning" http://www.youtube.com/watch?v=n1ViNeWhC24
Le truc est sensible à l' échantillon aléatoire d'images qui sert à construire la représentation du monde. D'autre part, les algo de descente de gradient et équivalent utilisent des nombres aléatoires.

Ils ne sont déterministes que si tu fixes toutes les conditions initiales (le jeu gigantesque d'images de prétraining) et que tu rejoues exactement les mêmes nombres aléatoires lors du training. Ce n'est pas en général comme ça que ça se passe (entre autre parce que le flux de signaux d'"environnement" est lui-même aléatoire et continue, comme dans la vraie vie, et qu'il est moins cher et plus efficace (pour optimiser le réseau) de tirer des nombres aléatoires à partir d'une source d'entropie physique que de les précalculer et d'utiliser toujours les mêmes).

[Ce message a été modifié par PascalD (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant