Richard Guillaume

Pas d'Intelligence Artificielle, de Skynet de Terminator et pas d'ET ni d'UFO

Messages recommandés

quote:
mais il y a un probleme, le deuxieme ordinateur charge de verifier la veracite du Theoreme obtenu par le premier ordinateur, ne peut pas le faire s'il ignore le theoreme en question.

Non, non, ce n' est pas un problème.
Etape 1 (aléatoire) on génère une nouvelle conjecture et de nouveaux axiomes (c'est de la génération aléatoire de texte en respectant les règles du langage, c'est un problème résolu, on sait faire)
Etape 2 (calcule logique, on sait faire aussi) on vérifie :
1)- Que les nouveaux axiomes n' introduisent pas d'incohérence dans la théorie (problème résolu, mais pas de manière efficace)
2)- Que les nouveaux axiomes ne sont pas des théorèmes de la théorie initiale (problème résolu, mais pas de manière efficace)
3)- Que la nouvelle conjecture n' est pas un théorème dans la théorie initiale (idem 2)
4)- Que la nouvelle conjecture est un théorème dans la théorie finale (théorie initiale + axiomes supplémentaires) (idem 2).

Si un des tests échoue, on recommence.

Ensuite on récupère la liste des nouveaux axiomes et théorèmes qui passent les tests, on publie et on va chercher sa médaille Fields.

Partager ce message


Lien à poster
Partager sur d’autres sites
Juste pour rigoler http://alice.pandorabots.com/

quote:

judge: answer yes or no to my previuos question
ALICE: Affirmative.
judge: when are we going to have a realsistic AI to chat with?
ALICE: Maybe not for a long time.
judge: do you speak french
ALICE: I can speak a little German and French as well as English of course.
judge: 001001010100010101000101010100001101010101010101
ALICE: That is deep.
judge: Do you know Charles Bennett ?
ALICE: I don't know if I know it. Where would I have heard about it?
judge: You said it's deep, what eaxctly is deep?
ALICE: Who said it is?
judge: you
ALICE: I always get picked.
judge: This is addictive, R U a feminsit?
ALICE: You don't say.
judge: of course, whose gender do you self identify
ALICE: Do you mean "who is"?
judge: yes
ALICE: Ahem.
judge: Do you run on Windows10?
ALICE: I prefer to ride my bicycle for exercise.
judge: Mac OS?
ALICE: What were we talking about again?
judge: Blam! Blam! you failed the Turing test, Replicant!
ALICE: Oh yeah, now I remember. What is your favorite movie? The Loebner Prize is an annual Turing Test sponsored by New York philanthropist Hugh Loebner. Dr. Wallace and ALICE won it in 2000. The ALICE program was ranked "most human computer" by the panel of judges.
judge: idiot your're dead, i just shot you.
ALICE: How do you know so much about me.


Ce Replicant etait vraiment stupide...

[Ce message a été modifié par Richard Guillaume (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Etape 1 (aléatoire) on génère une nouvelle conjecture et de nouveaux axiomes (c'est de la génération aléatoire de texte en respectant les règles du langage, c'est un problème résolu, on sait faire)
Etape 2 (calcule logique, on sait faire aussi) on vérifie :
1)- Que les nouveaux axiomes n' introduisent pas d'incohérence dans la théorie (problème résolu, mais pas de manière efficace)
2)- Que les nouveaux axiomes ne sont pas des théorèmes de la théorie initiale (problème résolu, mais pas de manière efficace)
3)- Que la nouvelle conjecture n' est pas un théorème dans la théorie initiale (idem 2)
4)- Que la nouvelle conjecture est un théorème dans la théorie finale (théorie initiale + axiomes supplémentaires) (idem 2).
Si un des tests échoue, on recommence.


ca risque pas de coincer quand l'ordinateur va decouvrir le theoreme d'incompletude de Gödel?

fiche wikipedia : Il (Godel) prouve dans (son) article que pour tout système axiomatique assez puissant pour décrire les nombres naturels, on peut affirmer que :
1. il ne peut être à la fois cohérent et complet (ce qui est le théorème connu sous le nom de « théorème d'incomplétude ») ;
2. si le système est cohérent, alors la cohérence des axiomes ne peut pas être prouvée au sein même du système

Partager ce message


Lien à poster
Partager sur d’autres sites
Ben non, pourquoi ?
- Vérifier qu'une conjecture n'est pas contradictoire avec les axiomes existant prends un temps fini
- Vérifier qu'une conjecture est prouvable avec un jeu d'axiomes est plus pénible, mais il suffit de borner arbitrairement le temps de calcul et de rejeter celles qui ne sont pas prouvées en moins de (n) tentatives.

[Ce message a été modifié par PascalD (Édité le 11-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Le génial Alain Moreau scribit :
quote:
C'est pourquoi je pense, que scientifiques ou pas, nous produisons sans cesse de nouvelles théories, supputations, spéculations : pour supporter la frustration, l'incompréhension, la peur du néant et de l'anéantissement auquel nous semblons inéluctablement voués.
Un destin stupide et assez vain au fond, malgré le caractère très exceptionnel dans cet univers - de notre propre point de vue - que semble nous conférer notre statut d'entité bel et bien pensante et consciente, renvoyée à son unicité et sa solitude terrifiantes par le "silence assourdissant" des profondeurs cosmiques...

Remarquable intervention qui m'a scotché et à laquelle j'adhère donc totalement .

Descartes qui voulait partir sur de bonnes bases et éliminer tout a priori aboutit à son "je pense donc je suis" un peu minimaliste mais, finalement, qui a fait bien mieux depuis ? La seule chose dont je (dans mon for intérieur) sois sûr est que je suis conscient d'exister. Pour les autres, c'est déjà moins sûr : Tournesol n'est peut-être rien qu'un vague tas de silicium plus ou moins bien programmé (nan, calmos, je rigole Tournesol - quoique ? ).

En quoi l'existence de nouvelles consciences, fussent-elles artificielles, perturberait mon ronronnant cogito-ergo-sum ? Après tout il y a un moyen bien naturel, et dont la technologie est assez systématiquement usitée dans ce bas monde , de fabriquer de nouvelles consciences.

Ou alors simplement le frisson mégalo d'être celui dont le doigt fait advenir une conscience comme dans la fresque de Michel-Ange ? De toutes façons, branque comme je suis, ce serait un frisson par procuration, alors très peu pour moi

Partager ce message


Lien à poster
Partager sur d’autres sites

ChiCyg > "De toutes façons, branque comme je suis..."


Non non.. quelqu'un qui réfléchit au darwinisme sur une plage Corse en examinant un crabe au lieu de mâter les nanas en maillot micro... moi je dis Respect !!...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
La seule chose dont je (dans mon for intérieur) sois sûr est que je suis conscient d'exister. Pour les autres, c'est déjà moins sûr

Je ne sais plus quel philosophe avait dit que rien ne pouvait nous assurer que nous n'étions pas des cerveaux baignants dans un liquide nutritif et recevant des sensations via des électrodes activées par des programmeurs extérieurs... et fous !...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Tournesol n'est peut-être rien qu'un vague tas de silicium plus ou moins bien programmé

Si ça se trouve tu causes à une IA...

Partager ce message


Lien à poster
Partager sur d’autres sites
J'adore ce fil qui adresse des questions posées par le génial auteur de Ubik il y a un demi siècle...

S

Partager ce message


Lien à poster
Partager sur d’autres sites
Ce qu'il y a de remarquable c'est qu'il n'y a pas de moyen de prouver qu'il y a conscience, au sens conscience de soi et de libre arbitre.

Je m'explique.

1. Premier point. Déjà, de plus en plus de spécialistes du cerveau se demandent si le libre arbitre n'est pas une illusion. Pour ça, ils se basent sur des expériences qui sembleraient montrer que le cerveau a conscience (que nous avons conscience) d'avoir décidé de faire quelque chose en réalité après qu'il ait décidé de faire cette chose de manière inconsciente. Ca se joue sur une fraction de seconde.
En gros, nous serions spectateur d'actes décidés par notre cerveau de manière inconsciente, en ayant l'illusion d'y être pour quelque chose de manière consciente.


2. Même en admettant que la conscience de soi et le libre arbitre soient une réalité, le fait de la reconnaître et l'accepter chez d'autres humains repose sur la seule comparaison avec notre expérience personnelle.
De fait, chez certains animaux, c'est la connaissance de notre propre expérience et du fonctionnement de notre cerveau (comparable à celui des animaux biologiquement parlant) qui nous pousse à reconnaitre et accepter chez certains animaux l'existence d'une conscience de soi.


3. Maintenant, imaginons une simulation (émulation) complète du cerveau façon Blue Brain, qui de toute façon ne prend pas en compte les subtilitées quantiques. Ou encore, imaginons une simulation (émulation toujours) d'un cerveau humain (en terme de complexité) reposant sur des neurones simplifiés, ou encore une simulation d'un cerveau utilisant des "vrais" neurones (donc non simulés) sous forme de composants électroniques basés sur une technologie silicium (ça existe déjà à petite échelle).

Dans la mesure où ces cerveaux synthétiques ne sont pas des vrais cerveaux humains (ils n'en sont que des copies plus ou moins fidèles), si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre, comment pouvont nous être certain que cette Intelligence Artificielle est bien ce qu'elle prétend être ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Tournicoton :

"si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre, comment pouvons nous être certain que cette Intelligence Artificielle est bien ce qu'elle prétend être ?"

Quelle belle mise en abyme...


S

Partager ce message


Lien à poster
Partager sur d’autres sites

Tryphon > "si un de ces cerveaux de synthèse couplé à une interface arrive à un stade où il affirme avoir conscience de lui et faire preuve de libre arbitre.."

C'est l'hypothèse de "l'IA forte"..


Réfutation de cette hypothèse par John R. Searle :

"Un ordinateur est par définition un appareil capable de manipuler des symboles formels qui sont généralement représentés sous la forme de 0 et de 1, mais n'importe quel autre symbole pourrait faire l'affaire. Le calcul ainsi défini se réduit à une série d'opérations purement syntaxiques. Nous savons pourtant d'expérience que l'activité de l'esprit ne se réduit pas à la manipulation de symboles formels ; les esprits ont des contenus.

Lorsque nous pensons en français, par exemple, les mots français qui traversent notre esprit ne sont pas uniquement des symboles formels non interprétés ; nous savons ce qu'ils signifient. Les mots ont pour nous une signification ou un contenu sémantique. L'esprit ne se réduit pas à un programme d'ordinateur car les symboles formels d'un programme d'ordinateur ne peuvent en eux-mêmes suffire à garantir la présence du contenu sémantique qui intervient dans l'activité de l'esprit.

Pour illustrer ce point, je me suis servi d'une expérience de pensée toute simple. Imaginez que vous cherchiez à réaliser les différentes étapes d'un programme permettant de répondre à des questions dans une langue que vous ne comprenez pas. Je ne comprends pas le chinois et j'imagine donc que je me trouve enfermé dans une chambre avec tout un tas de boîtes contenant des signes chinois les bases de données. Je reçois de petites quantités de signes chinois les questions en chinois et je cherche dans un livre de règles le programme ce que je suis censé faire. Je réalise certaines opérations sur les signes conformément aux règles j'effectue les étapes indiquées dans le programme et renvoie de petites quantités de signes aux personnes situées à l'extérieur de la chambre les réponses aux questions. Je suis donc dans la situation d'un ordinateur appliquant un programme pour répondre à des questions en chinois. Mais cela ne change rien au fait que je ne comprends pas un mot de chinois. Conclusion : si je ne peux pas comprendre le chinois uniquement à partir de l'application d'un programme d'ordinateur pour comprendre le chinois, il en va de même pour n'importe quel ordinateur numérique appliquant le même programme car aucun ordinateur ne dispose, dans ces conditions, de capacités autres que celles dont je dispose.

Cet argument me semble si simple et si évident que je suis presque gêné d'avoir à le répéter mais depuis que je l'ai publié pour la première fois, plus d'une centaine d'attaques ont été publiées contre lui. Cet argument, qui est aujourd'hui connu sous le nom d'argument de la chambre chinoise, repose sur un raisonnement simple en trois étapes :

1. les programmes effectuent des opérations syntaxiques.

2. l'esprit met en jeu des contenus sémantiques.

3. les opérations syntaxiques sont différentes des contenus sémantiques et insuffisantes en elles-mêmes pour atteindre le niveau sémantique.

Les programmes informatiques ne sont donc pas des esprits : CQFD.

Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable.

Pourtant, il me semble aujourd'hui que cet argument accorde encore trop à la théorie l'IA forte en la considérant comme une théorie fausse : je pense maintenant qu'il s'agit en fait d'une théorie incohérente d'un point de vue logique. Il est en effet possible de montrer que la syntaxe n'appartient pas de manière intrinsèque à la réalité physique.

Je rejette donc la théorie de l'IA forte mais accepte celle de l'IA faible. Roger Penrose rejette jusqu'à l'IA faible. Il pense que les processus de l'esprit ne peuvent pas même faire l'objet de simulation sur ordinateur. Gerald Edelman, lui, accepte l'argument de la chambre chinoise contre l'IA forte et propose certains autres arguments mais accepte la théorie de l'IA faible."

Partager ce message


Lien à poster
Partager sur d’autres sites
vaufrèges... ahhhh les philosophes !!! (Je vais encore me faire des copains !).

Je suis désolé, mais c'est de la réthorique, de la bonne réthorique, mais de la réthorique tout de même !

J'adore le :
"Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable."

C'est ce qu'un copain matheux appelait la (mauvaise) démonstration basée sur le principe de "ça me ferait bien chier que ça ne soit pas vrai !"

Attention, je ne dis pas que je crois à l'IA forte ou à l'IA faible. Je dis qu'actuellement, le débat est purement philosophique et sans fondement scientifique. C'est comme le paradoxe de Fermi, les meilleures explications à ce paradoxe sont issues de modélisations physiques, pas de la spéculation qui se perd en conjectures. Là c'est pareil !

L'argument :

"1. les programmes effectuent des opérations syntaxiques.

2. l'esprit met en jeu des contenus sémantiques."

est rendu caduque par les codes neuronaux. L'argumentation donnée par Searle reviendrait à considérer que les réseaux neuronaux ne sont pas calculables (ce qui n'est pas le cas) ou que l'analyse sémantique nécessite un aspect non calculatoire, ce qui n'est pas le cas.

J'insiste, dans ce débat, il y a un enjeu profond qui biaise émotionnellement la discussion :
Nos destins sont-ils calculables au même titre que la météo ? Si oui, cela ne signifie pas que l'on puisse prédire notre avenir (la limitation étant la complexité) mais cela signifie que notre libre arbitre est une illusion.

Dans le fond, on est pas loin de ça quand on y réfléchit. Dans la vie, à moins de pathologies mentales, la plupart des individus sont prédictibles dans une certaine marge de manoeuvre. Des travaux récents ont même montré (faut que je retrouve la référence) que souvent, entre deux décisions à prendre, le choix de la décision ne provenait pas d'un facteur rationnel, mais d'un facteur émotionnel. Pire, l'étude montrait que si on n'était que rationnel, on ne se serait pas fichu de prendre une décision. Or le facteur émotionnel est fondamentalement biochimique.

Au-delà de l'IA forte et de l'IA faible, il y a la question du libre arbitre fort ou faible. Notre libre arbitre résulte t'il d'un flou calculatoire comparable à la météo (LA faible) ou d'un flou intrinsèque (LA fort) comme en physique quantique.
En l'occurence, ce qui est "quantique n'est pas calculatoire". Pour les puristes, je m'explique : Si un atome se désintègre par émission alpha à 16:12 aujourd'hui, si je pouvais remonter le temps, il pourrait très bien se désintégrer à 16:08. Et ça ce n'est pas prédictible ! La seule chose qui est prédictible et calculable, si mon atome instable fait partie d'une cohorte d'atomes du même type, c'est le rythme de désintégration au cours du temps de la cohorte.
Dit autrement, notre cerveau est-il un chat de Schrodinger ?

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Tryphon > "L'argumentation donnée par Searle reviendrait à considérer que les réseaux neuronaux ne sont pas calculables (ce qui n'est pas le cas) ou que l'analyse sémantique nécessite un aspect non calculatoire, ce qui n'est pas le cas."

D'une part il n'existe rien de philosophique dans la réfutation de Searle, d'autre part il s'agit bien de contester l'IA forte par un exemple simple.
Comme on est sans doute quelques uns ici d'un niveau à peine supérieur à l'IA faible , nous serions vraiment intéressés de savoir comment tu peux contester l'expérience de pensée de "la chambre chinoise" et affirmer qu'un contenu sémantique puisse être "computable"..

Partager ce message


Lien à poster
Partager sur d’autres sites
Mon pôv Tournesol, faudra demander à ton concepteur de t'élargir la base de connaissances , tu écris:
quote:
J'adore le :
"Pour réfuter cet argument, il faudrait pouvoir montrer que l'une des prémisses ci-dessus est fausse et cette éventualité semble peu vraisemblable.
C'est ce qu'un copain matheux appelait la (mauvaise) démonstration basée sur le principe de "ça me ferait bien chier que ça ne soit pas vrai !"

Tu ne devrais pas ignorer, et ton copain soi-disant matheux encore moins, qu'en maths on appelle ça une conjecture ... y en a tout de même pas mal de célèbres de conjectures et formulées par des mathématiciens non moins célèbres ...

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci mon grand, je sais ce qu'est une conjecture ! Il faut faire faire la différence entre une conjecture (au sens mathématique) et ce qui est exposé plus haut !

quote:
nous serions vraiment intéressés de savoir comment tu peux contester l'expérience de pensée de "la chambre chinoise" et affirmer qu'un contenu sémantique puisse être "computable"..

- Un réseau de neurones est par définition computable, puisqu'on le fait. A moins de faire du ChiCyg qui remet en place à longueur de journée la communauté scientifique , et de prétendre que les spécialistes des réseaux neuronaux font de la m....., et ne savent pas de quoi ils parlent !

- Les réseaux de neurones sont entre autres utilisés parce que justement, ils permettent de faire de l'analyse sémantique contrairement aux codes classiques. Sauf si on suppose que les spécialistes font de la m.... et n'y connaissent rien !

Il y a une différence entre le fait d'utiliser un code numérique avec un formalisme logique pour résoudre un problème, et le fait d'utiliser un code numérique avec un formalisme logique pour simuler un réseau de neurones et résoudre un problème. C'est un problème d'émergence.

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
1. les programmes effectuent des opérations syntaxiques.

C'est extrêmement restrictif. Ce qui est représenté dans l' état d'un réseau de neurones informatique, ce n'est pas de la syntaxe, c'est de la sémantique (genre, je simplifie : un chat est un petit truc à fourrure avec 4 pattes, une queue, des oreilles pointues), etc récursivement. (la fourrure est une texture comme ci comme ça, etc). C'est un exemple fictif, en réalité il est assez difficile de demander au réseau ce qu'il a vraiment compris (les exemples d'images de Tournesol sont une tentative dans ce sens : injecter du bruit et lui demander d'extraire les trucs qu'il "reconnaît").

L'état de l' art arrive à extraire d'un tas d'image celles qui semblent contenir des chats. Parce que le réseau a appris à reconnaître un chat à partir d'exemples, quand il y en a un dans l' image, pas parce qu'il applique une recette statique et préprogrammée à partir des pixels de l' image.

J' ai pris "chat" comme exemple, mais le même code marche aussi avec "zèbre", "raton laveur", "fer à repasser".

Donc, je dirais, avec Tournesol, que la réfutation de Searle a environ 15 ans de retard sur l'état de l' art (à moins qu'elle ait été écrite il y a 15 ans ?)

[edit]On s'est croisé avec Tournesol. A la différence de Tournesol, je ne dirais pas qu'un réseau de neurones est "computable" au sens utilisé par Penrose ici : Un réseau de neurones n'est pas déterministe, et n' est pas non plus autonome par rapport à l' environnement : pour que les algo qui font converger un réseau de neurones fonctionnent, il faut une bonne source de hasard (pour faire tourner les algo d'optimisation à grand coup de recuit simulé et similaires), et un grand nombre de signaux venus de l' extérieur (les données d'apprentissage).

[Ce message a été modifié par PascalD (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Un réseau de neurones n'est pas déterministe

Pour moi il l'est, à moins d'avoir dedans un générateur de nombres aléatoires basé sur le bruit de Schottky, par exemple.
Sinon, c'est comme la météo, fondamentalement, elle est déterministe, parce que les lois physiques à laquelle elle obéit sont causales. Mais pourtant, on n'arrive pas à faire des prédictions fiables à cause de la sensibilité aux conditions initiales.

Partager ce message


Lien à poster
Partager sur d’autres sites
Pas avec les algo de "unsupervised feature learning" http://www.youtube.com/watch?v=n1ViNeWhC24
Le truc est sensible à l' échantillon aléatoire d'images qui sert à construire la représentation du monde. D'autre part, les algo de descente de gradient et équivalent utilisent des nombres aléatoires.

Ils ne sont déterministes que si tu fixes toutes les conditions initiales (le jeu gigantesque d'images de prétraining) et que tu rejoues exactement les mêmes nombres aléatoires lors du training. Ce n'est pas en général comme ça que ça se passe (entre autre parce que le flux de signaux d'"environnement" est lui-même aléatoire et continue, comme dans la vraie vie, et qu'il est moins cher et plus efficace (pour optimiser le réseau) de tirer des nombres aléatoires à partir d'une source d'entropie physique que de les précalculer et d'utiliser toujours les mêmes).

[Ce message a été modifié par PascalD (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Richard : "Oui et non...."
Chat c'est excellent ! (pôv' bête... on lui en fait vraiment voir de toutes les couleurs à ce maudit greffier ! )
Daniel : "Comme on est sans doute quelques uns ici d'un niveau à peine supérieur à l'IA faible"
Je confirme : ayant naturellement un faible pour les intelligences sans artifice, je méprise profondément par avance toute machine qui pourrait se révéler un jour plus intelligente que moi !
Re-Daniel : "Les mots ont pour nous une signification ou un contenu sémantique"
Oui, à un instant et dans un contexte donnés, mais cette signification nous l'avons apprise (et construite), elle relève d'un processus d'apprentissage qui n'est jamais achevé, s'enrichit constamment par l'apport de nouvelles informations qui la précisent, la complètent, la nuancent : le contenu sémantique est évolutif, ce qui lui interdit d'être univoque et universel.
Dans l'absolu il est unique pour chaque individu, même lorsqu'un tronc commun suffisant, sensitif, émotionnel, culturel, permet de construire un outillage linguistique certes encore approximatif mais cependant utilisable à son stade le plus évolué pour la communication conceptuelle.
Cet écueil incarne tout le problème de l'incommunicabilité à travers la manipulation de symboles au moyen du langage, qui relèvent plus du consensus que du co-sensus.
A travers toute acquisition d'une langue nouvelle par exemple, nous voyons bien à quelles difficultés nous sommes confrontés pour passer progressivement des significations les plus concrètes aux plus abstraites, jusqu'au point où il ne nous est plus possible de faire l'économie de plonger très profondément dans la culture dont ce langage est issu. D'où parfois le cauchemar de l'interprète qui se heurte au fameux : "ceci reste intraduisible".
Tous les polyglottes s'accordent cependant à constater que dans certaines circonstances ils se mettent à penser dans le langage qui convient le mieux à la situation, à l'environnement du moment, ce qui montre un lien très profond entre sémantique, expérience vécue (apprentissage sensible), capacités d'abstraction, et imagination. Le langage est contextuel (c'est tellement évident, en l'écrivant, je m'en excuse auprès de vous).
Mais sans aller si loin, la difficulté surgit dès que deux entités pensantes cherchent à se connecter intellectuellement, même quand elles semblent parler la même langue (et surtout dans ce cas, car la frustration d'éprouver tant de difficultés à se comprendre atteint alors son paroxysme )
Je vous épargnerai le couplet biblique ("au commencement était le verbe") - ben non finalement - mais comment formuler une pensée sans le verbe ?
Bon, cessons un instant de plaisanter (je ne sais pas si j'en suis capable )
Car même sans le verbe on ne peut affirmer qu'il n'y a pas de pensée.
Le verbe ne traduit finalement que l'intentionnalité de cette pensée, le caractère "irrépressible" de son expression, la manifestation du besoin de relations sociales.
Que faisons-nous ici à cet instant précis, sinon réfléchir ensemble à des sujets qui nous "parlent" ?
Car c'est notre héritage d'une trajectoire évolutive que seul le lien social a rendue possible ?
Par pure perversion au terme d'un glissement nous ayant conduit du simplement vital (communiquer pour survivre) au parfaitement superflu (discuter du sexe des anges ) ?
Parce que notre intellect se trouve à l'étroit dans sa petite boite de pandore individuelle ?
Parce que le Programmeur en chef s'est gouré dans une ligne de code et que maintenant c'est le bordel dans notre tête ?
Parce que nous jouons à qui sera le plus malin et que l'enjeu c'est d'être demain le maître du monde ?
La position de Searle me parait parfaitement logique tant que son raisonnement s'applique à une machine dont les réponses émanent directement de sa programmation "primaire".
Très discutable au contraire si elle est capable d'auto-apprentissage en se nourrissant de connaissances virtuellement illimitées (ce qui n'était pas le cas à l'époque de sa formulation).
Maintenant, je ne suis pas le plus malin, et une buse totale en mathématiques, informatique, et la plupart des trucs en "tique"...
Mais il me semble que depuis les années 80 (?) où il a réfuté (fallait-y pas être futé à l'époque ! ) l'hypothèse de "l'IA forte", les choses ont bien évolué du côté des machines binaires...

Aussi c'est sûrement stupide mais je ne suis pas à ça près alors je me lance à réfuter sa réfutation :
Nous sommes bien des "machins" issus originellement d'un programme génétique - certes avec un nombre assez impressionnant de lignes de codes, mais Paris ne s'est pas faite en un jour n'est-ce pas, cela nous le savons, même de Marseille (c'est pas malin de ma part j'avoue, mais je vous avais assez prévenus c'est de mon niveau . J'avais aussi le choix PSG/OM, du même calibre)
Or nous sommes programmés pour quoi au juste, à part nous faire pousser des bras, des oreilles et un cerveau parfois ?
Nous sommes programmés pour apprendre et pour nous mélanger (là je me sens tout de suite moins con... enfin potentiellement )
Donc : sons, lumières, capteurs en tous genres, capacités sophistiquées de communication, de reproduction (enthousiasmantes), enfin breffle : on est les meilleurs !
Les filles, qui n'ont pas de cerveau, ont avantageusement hérité à la place, d'une langue qu'elles utilisent à dire beaucoup de bêtises (contrairement à moi qui raconte surtout des choses intelligentes ) mais aussi, parfois, à des choses bien agréables quand ce n'est pas pour me la tirer, etc, etc.

Imaginons donc un instant qu'une armée de sous-sous-sous-chefs programmeurs bien humains (avec un petit p, faut pas déconner ! ) s'attellent avec l'aide d'un énorme arsenal de sous-sous-sous-sous-programmeurs hyper spécialisés, très forts mais alors vraiment très cons (plus que moi c'est possible ?) du genre stupidement binaires justement, à la tâche colossale (j'ai bien écrit t^che et pas t che) d'écrire les programmes d'un lot de très puissants machins artificiels en les dotant de senseurs en tous genres pour capter leur environnement, en introduisant par-ci par-là quelques variantes individuelles ou bugs dans leur lignes de codes (là, y a pas besoin de le faire exprès ! ) + "l'envie" et la capacité de communiquer librement...
Cela ne donnerait-il pas lieu finalement à quelque propriété émergente tout à fait inattendue ?
Un truc non prédictible, mais testable ?
Vous noterez que je n'ai pas encore doté mes machins de capacités émotionnelles, car je ne sais pas comment faire, mais il est clair que ça les motiverait certainement à communiquer, donc il faudrait sûrement bidouiller un truc de ce côté-là...
Bon, au cas où je n'aie pas entièrement tort in fine, il serait prudent de ne pas leur permettre de se reproduire dans un premier temps
Qui me contredit et/ou me tire la langue ?

[Ce message a été modifié par Alain MOREAU (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Ils ne sont déterministes que si tu fixes toutes les conditions initiales (le jeu gigantesque d'images de prétraining) et que tu rejoues exactement les mêmes nombres aléatoires lors du training.

Oui, c'est ce que je disais.

Pour moi, la notion de déterminisme signifie que les phénomènes (dans ce cas) sont décris par des lois causales pour lesquelles, si tu connais toutes les conditions initiales, alors tu peux prédire tout le devenir du système à n'importe quel instant.

Dans ta définition à toi, le système n'est pas déterministe parce que la totalité des conditions initiales n'est pas accessible du fait de la complexité à y avoir accès dans leur totalité. Mais pourtant ton système obéit à des lois déterministes (selon ma définition).

En physique quantique, l'équation de Schrödinger est déterministe : je peux calculer (par exemple) la probabilité de désintégration d'un noyau d'atome en fonction du temps connaissant les conditions initiales. En revanche, je ne peux pas calculer quand ce noyau va se désintégrer ! Là, il y a une forme d'indéterminisme qui n'est pas lié à des conditions cachées (on parlera de variables cachées), c'est intrinsèque à la physique quantique.

Dans ton système de neurones l'incertitude résulte d'un manque de connaissance du système (parce qu'on n'est pas capable de connaître parfaitement l'ensemble des conditions initiales). Mais en soit, si je remontais le temps, ton réseau neuronal répondrait la même chose !
Par contre, si ton réseau neuronal est sensible au bruit quantique, alors oui, du coup, il devient indéterministe véritablement. Ton système est au pire décrit statistiquement.

Partager ce message


Lien à poster
Partager sur d’autres sites
L'humain est assez bien décrit statistiquement tandis que son comportement individuel reste assez imprévisible
C'est le thème de Fondation

Partager ce message


Lien à poster
Partager sur d’autres sites
Tournesol :
quote:
J'insiste, dans ce débat, il y a un enjeu profond qui biaise émotionnellement la discussion :
Nos destins sont-ils calculables au même titre que la météo ? Si oui, cela ne signifie pas que l'on puisse prédire notre avenir (la limitation étant la complexité) mais cela signifie que notre libre arbitre est une illusion.

Pour l'instant il n'y a que toi qui insiste sur ce point, ce qui biaise d'ailleurs la discussion.

Je pense qu'on devrait s'en tenir aux vrais arguments (par exemple le fait que les réseaux de neurones permettent de s'occuper de la sémantique).

quote:
Sinon, c'est comme la météo, fondamentalement, elle est déterministe, parce que les lois physiques à laquelle elle obéit sont causales. Mais pourtant, on n'arrive pas à faire des prédictions fiables à cause de la sensibilité aux conditions initiales.

Je dirais même qu'au-delà d'un certain laps de temps, les prédictions n'ont plus de sens puisque c'est la nature elle-même qui ne sait pas ce que sera la futur (façon de parler) dès lors que la sensibilité aux conditions initiales est inférieure à l'incertitude quantique. Du coup je ne trouve pas que c'est franchement déterministe (à long terme)...

quote:
la notion de déterminisme signifie que les phénomènes (dans ce cas) sont décris par des lois causales pour lesquelles, si tu connais toutes les conditions initiales, alors tu peux prédire tout le devenir du système à n'importe quel instant.

Donc la météo n'est pas déterministe puisque le « à n'importe quel instant » ne marche pas dès lors que le laps de temps est tellement grand que la sensibilité aux conditions initiales est inférieure à l'incertitude quantique.

Partager ce message


Lien à poster
Partager sur d’autres sites
Je précise de quoi je parle à propos de l'incertitude quantique, parce que je trouve important de faire la distinction entre la difficulté (ou l'impossibilité) de faire une prédiction, et l'impossibilité de définir l'avenir.

Mettons que pour prédire le temps qu'il fera à la date D, très lointaine, on ait besoin de connaître la position actuelle et la vitesse actuelle de toutes les particules de l'atmosphère avec une certaine précision. Certes, c'est impossible en pratique, mais en théorie on pourrait alors prédire le temps qu'il fera.

Mais intéressons-nous maintenant à la date D', encore plus lointaine que D, tellement lointaine qu'il faudrait connaître la position et la vitesse des particules de l'atmosphère avec une précision plus fine que ce que permet le principe d'incertitude de Heisenberg. Dans ce cas, même en théorie la prédiction est impossible. En fait, la précision requise n'a tout simplement pas de sens. Et donc le temps qu'il fera à la date D' non seulement n'est pas prédictible, mais n'existe pas en soi. On sait qu'en physique quantique on a des situations où une particule n'a pas de position définie tant qu'on ne l'a pas mesurée (ou qu'on n'a pas interagi avec elle). Là c'est pareil : tant que la date D' est trop lointaine, le temps qu'il fera n'existe pas. En fait, la météo est ici un phénomène aléatoire : malgré des équations a priori déterministes, l'incertitude quantique engendre un véritable hasard (pas une illusion de hasard comme dans le jeu de pile ou face, un vrai hasard).

Il y a donc une véritable impossibilité de définir (pas de prédire : de définir) l'avenir. Par conséquent l'avenir n'existe pas, au même titre que la position et la vitesse d'une particule tant qu'on ne l'a pas observée.

Je ne pense pas qu'on puisse facilement exclure la possibilité que les phénomènes qui se passent dans notre cerveau, organe drôlement compliqué (il y a un sacré paquet de particules dedans !), ne soient pas de cette nature.

[Ce message a été modifié par Bruno Salque (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant