Richard Guillaume

Pas d'Intelligence Artificielle, de Skynet de Terminator et pas d'ET ni d'UFO

Messages recommandés

Je suis d'accord Bruno, même totalement !

Pour reformuler ce que tu dis :
En théorie du chaos, on connait l'importance des conditions initiales. Effectivement, à un moment donné, probablement que des aspects quantiques auront un rôle dans ce type de système. Par exemple, dans un réseau neuronal in silico, on peut penser que si le bruit quantique est important, le système sera non calculable et indéterministe.
Donc de fait, je pense que l'on peut construire une IA aussi intelligente qu'un humain, et aussi "imprévisible".

J'ajoute, que la conscience, c'est se sentir penser sans se percevoir comme un autre, ce qui n'est pas le cas dans certaines pathologies mentales où la personne qui pense entend ses voix intérieures comme étant le fait de sujets extérieurs. Ce qui milite bien pour le fait que la conscience soit bien un processus neuronal émergent, et à mon sens reproductible avec des réseaux de neurones in silico.

En fait si notre cerveau était totalement gouverné par les lois de la physique (chimie) classique, nous serions déterministes, et le libre arbitre serait une illusion.

Maintenant, je ne sais plus quel "penseur" voyait dans les inégalités de Heisenberg un moyen pour Dieu d'agir dans notre monde incognito Son idée était que si l'Univers était totalement déterministe, à la moindre action de Dieu il se ferait pécho !
En revanche, si ça arrange Dieu de stimuler la désintégration d'un noyau d'atome à 16:30 au lieu de 16:35, parce qu'à ce moment là, ça déclenchera une alarme qui fera sortir le physicien Cosinus du labo qui alors tombera amoureux de la belle biologiste qui passait par là, alors tant que la loi de décroissance radioactive de l'ensemble d'atomes reste vérifiée, il n'y a pas de soucis, la conscience divine peut agir sans se faire prendre en flag de violation des lois physiques !
Idée : Notre conscience serait notre Dieu personnel profitant des largesses du bruit quantique au sein de notre cerveau

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Un réseau de neurones est par définition computable, puisqu'on le fait. A moins de faire du ChiCyg qui remet en place à longueur de journée la communauté scientifique , et de prétendre que les spécialistes des réseaux neuronaux font de la m....., et ne savent pas de quoi ils parlent !

Où ai-je écrit ça ? C'est toi qui me parait ne pas savoir de quoi tu parles.
quote:
- Les réseaux de neurones sont entre autres utilisés parce que justement, ils permettent de faire de l'analyse sémantique contrairement aux codes classiques. Sauf si on suppose que les spécialistes font de la m.... et n'y connaissent rien !

Donne un exemple. Je t'ai cité plus haut le cours de Duda où il y a des chapitres entiers sur les réseaux neuronaux où on voit le même problème résolu avec ou sans réseau neuronal avec plus ou moins d'efficacité. En astro il me semble qu'il y a des gens qui utilisent des réseaux de neurones pour classer des images de galaxies ou quelque chose de ce genre.
quote:
Il y a une différence entre le fait d'utiliser un code numérique avec un formalisme logique pour résoudre un problème, et le fait d'utiliser un code numérique avec un formalisme logique pour simuler un réseau de neurones et résoudre un problème. C'est un problème d'émergence.

Comme dit plus haut, sur un ordinateur, un réseau neuronal n'est ni plus ni moins un programme. Le fait d'appeler ce programme "réseau neuronal" ça provoquerait par magie une "émergence" c'est du grand n'importe quoi !

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Pour moi, la notion de déterminisme signifie que les phénomènes (dans ce cas) sont décris par des lois causales pour lesquelles, si tu connais toutes les conditions initiales, alors tu peux prédire tout le devenir du système à n'importe quel instant.

D'accord avec Tournesol.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Donne un exemple.

Non par respect pour ta famille tout ça... non.
Tu vas sur Google Scholar et toute la connaissance est à porté de ta main (sous réserve que les publications soient disponibles en open access). Je ne vais pas faire pour toi une biblio dont la facilité d'accès est à la portée du premier venu avec un minimum de notions d'anglais.

quote:
c'est du grand n'importe quoi !

Tu dois avoir raison, comme en cosmologie et tout le reste !
ChiCyg, ministre de la recherche !

[Ce message a été modifié par Tournesol (Édité le 12-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
En physique quantique, l'équation de Schrödinger est déterministe : je peux calculer (par exemple) la probabilité de désintégration d'un noyau d'atome en fonction du temps connaissant les conditions initiales. En revanche, je ne peux pas calculer quand ce noyau va se désintégrer ! Là, il y a une forme d'indéterminisme qui n'est pas lié à des conditions cachées (on parlera de variables cachées), c'est intrinsèque à la physique quantique.

Je ne suis pas sûr qu'il y ait une différence de nature profonde entre incertitude du chaos déterministe et incertitude quantique. Je m' explique:

Si tu suis l' approche de Zurek (et ses travaux sur la décohérence), la fonction d'onde évolue toujours de façon déterministe, il n' y a plus d' "effondrement de la fonction d'onde" lors d'une mesure, les coefficients des différents états possibles d'un système (arbitrairement défini) évoluent au gré des intéractions du système avec son "environnement" (ce qui est extérieur au système, tout aussi arbitrairement défini).
L' incertitude sur le résultat de la mesure vient alors du fait qu' on ne peut observer que les états avec lesquels l' observateur (au sens large) est intriqué du fait des interactions successives (pour nous, les autres états de la superposition deviennent inobservables). Donc, fondamentalement, on revient à un problème d'état initial inconnaissable, évoluant de façon déterministe, exactement comme pour la météo.

Partager ce message


Lien à poster
Partager sur d’autres sites

Tryphon > "Les réseaux de neurones sont entre autres utilisés parce que justement, ils permettent de faire de l'analyse sémantique"

Pascal D > "Ce qui est représenté dans l' état d'un réseau de neurones informatique, ce n'est pas de la syntaxe, c'est de la sémantique (genre, je simplifie : un chat est un petit truc à fourrure avec 4 pattes, une queue, des oreilles pointues), etc récursivement. (la fourrure est une texture comme ci comme ça, etc). C'est un exemple fictif, en réalité il est assez difficile de demander au réseau ce qu'il a vraiment compris (les exemples d'images de Tournesol sont une tentative dans ce sens : injecter du bruit et lui demander d'extraire les trucs qu'il "reconnaît").

L'état de l' art arrive à extraire d'un tas d'image celles qui semblent contenir des chats. Parce que le réseau a appris à reconnaître un chat à partir d'exemples, quand il y en a un dans l' image, pas parce qu'il applique une recette statique et préprogrammée à partir des pixels de l' image.
J' ai pris "chat" comme exemple, mais le même code marche aussi avec "zèbre", "raton laveur", "fer à repasser".


La "sémantique" des réseaux de neurones artificiels appliquée pour identifier les chats, les zèbres, les ratons laveurs voire pour l'accent marseillais OK OK..
En quoi cela contredit il les propos de Searle ??..

Mon impression est que vous n'attribuez pas à la sémantique du langage le rôle éminent qui est le sien dans la conscience et son éveil..
A tout le moins je vous trouve extrêmement optimistes dans vos analyses sur les capacités actuelles et à venir des réseaux de neurones artificiels.


Il ne vous a sans doute pas échappé que Searle évoquait les ordinateurs, pas les réseaux de neurones artificiels.. Pour autant,je ne crois pas que la différence entre ordinateurs et réseaux de neurones artificiels permette d'effacer la pertinence de son discours (qui aurait "15 ans de retard" - pour info ses propos datent de 2009) pas plus que celui de Penrose (pourtant différent sur la forme, pas sur la conclusion).

La sémantique est une branche de la linguistique qui étudie les signifiés, ce dont on parle, ce que l'on veut énoncer. Sa branche symétrique, la syntaxe, concerne pour sa part le signifiant, sa forme, sa langue, sa graphie, sa grammaire, etc. C'est la forme de l'énoncé. Bref, pour simplifier, la sémantique c'est le sens, les idées de l'énoncé (le fond). La syntaxe ce serait plutôt la grammaire (la forme)..

Je développe un peu pour bien définir de quoi on parle :

Le principe du réseau de neurones est de créer un raisonnement statistique. En fonction de ce qu’il a appris par le passé, grâce à une "base d’apprentissage", il va prendre des décisions par rapport aux données d’entrées qu’il reçoit. Le choix de classification se portera sur la probabilité de ressemblance à une classe qu’il connaît déjà. On appelle aussi ceci l’apprentissage "par expérience", le réseau de neurones intervenant comme une aide statistique à la décision.

Ces réseaux sont en relation plus ou moins étroite avec la modélisation de processus cognitifs réels, et bien sûr des structures et liaisons des réseaux de neurones biologiques. Dans ce cadre les "neuromiméticiens" manipulent des modèles de réseaux de neurones artificiels dans le but de vérifier leurs théories biologiques du fonctionnement du SNC (système nerveux central).

Dans la pratique, ils ont surtout été développé pour résoudre des problèmes :
- de contrôle,
- de reconnaissance de formes ou de mots
- de décision
- de mémorisation.

Grâce à leur capacité de classification et de généralisation, les réseaux de neurones sont généralement utilisés dans des problèmes de nature statistique, tels que la classification automatique de codes postaux ou la prise de décision concernant un achat boursier en fonction de l'évolution des cours. Autre exemple, une banque peut créer un jeu de données sur les clients qui ont effectué un emprunt constitué : de leur revenu, de leur âge, du nombre d’enfants à charge... et s’il s’agit d’un bon client. Si ce jeu de données est suffisamment grand, il peut être utilisé pour l’entraînement, l'apprentissage, d’un réseau de neurones. La banque pourra alors présenter les caractéristiques d’un potentiel nouveau client, et le réseau répondra s’il sera bon client ou non, en généralisant à partir des cas qu’il connaît.

Autre exemple, reconnaître le chant du rossignol en enregistrant.

* la hauteur du son,

* son timbre

* sa mélodie

S'il écoute un canari, il note les différences avec les paramètres pour le rossignol.

A ce stade, le système saura sûrement reconnaître le rossignol du canari et même rejeter le corbeau.

Par contre, il se peut que le pinson le trouble .


Ces réseaux ont aussi la faculté de reconnaître les voix, les visages, les formes (analyse morphologique), les règles du jeu de dames ou des échecs ou à stabiliser un hélicoptère..

Sauf que concilier la puissance de calcul des outils modernes avec la capacité d’apprentissage d’un système biologique n'est pas encore pour demain matin, voire même un peu plus tard .
Face à ces difficultés de réalisation, ces dernières années il semble que l'engouement a faibli quelque peu.

Néammoins depuis 2014 on assiste au développement des nouvelles techniques de "Deep Learning" qui permettent de donner du sens à des données sous forme d’image, de son ou de texte.. mais les progrès sont encore modestes eu égard aux ambitions de départ..

Plus le problème est complexe, plus il nécessite une base de données importante pour la "base d’apprentissage" : C'est coûteux en temps et en argent. De plus la détermination des descripteurs nécessite une analyse réalisée par un expert, et la même base de données brutes, selon les descripteurs qui en sont extraits, peut engendrer des réseaux de neurones aux performances très différentes.


Tout ce "cousinage" de la sémantique appliqué aux réseaux de neurones n'est pas inintéressant.. Sauf qu'il faut définir la sémantique comme étant d'abord l’étude du langage en tant que système symbolique pour modéliser la réalité sur laquelle nous “pensons verbalement” nos inférences et nos décisions. Selon cette définition, la sémantique a donc plutôt à voir avec la linguistique.

Système premier et unique parmi les systèmes symboliques, le langage est aussi le moyen universel de communication entre les humains. Il conceptualise le monde extérieur et permet d’agir sur lui. Il peut parler de tous les autres systèmes et de lui-même, analyser les structures d’un niveau systémique supérieur, assimiler les ensembles qu’il entend modéliser et dont cependant il émane.

La physique, la biologie, les neurosciences, les sciences cognitives, la systémique sont apparues ou ont évolué bien après les structures logiques du langage établies il y a plus de 2000 ans. Seuls des néologismes empruntés au grec, et à d'autres langues selon l'époque et le pays où ces nouvelles connaissances ont été développées, introduisent de nouveaux concepts dans le dictionnaire. Mais ces nouveaux concepts sont encore influencés par les vieilles structures logiques implicites.
Parler de l'aspect "défectueux" du langage pour modéliser un monde plus complexe que celui d'Aristote ou même de Descartes et de Newton ne nie pas sa richesse pour communiquer l'émotion et la beauté. On lui doit la littérature et la poésie, la créativité de figures de style telles que la métaphore, ou encore les divertissements que nous procurent les jeux de mots et traits d'esprit. On lui doit également les aphorismes qui nous obligent à penser autrement, et les paradoxes, amusantes preuves de la fréquente contradiction entre réalité vécue et raisonnements "logiques" implicites dans les structures archaïques du langage.

Par ailleurs, nous ne voyons pas les choses réellement telles qu’elles sont, mais notre conscience en abstrait des détails pour les reconstruire mentalement pendant que nous les regardons. Ce processus dépend des mémoires du vécu, qui dépend à son tour de la culture, de l’éducation, des croyances, du contexte etc.
Ce faisant nous extrayons inconsciemment certains aspects en en éliminant d’autres. Le modèle que nous nous construisons pour comprendre le monde qui nous entoure est une abstraction de l’objet- phénomène-processus-observé.

Lorsque les réseaux de neurones artificiels balanceront des blagues subtiles ils seront encore à combien du niveau réel de la conscience humaine ??...

Même mon chien me faisait des blagues ..

Roxy > Paix à ton âme et tes neurones.. sniff.. ..

[Ce message a été modifié par vaufrègesI3 (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Mon impression est que vous n'attribuez pas à la sémantique du langage le rôle éminent qui est le sien dans la conscience et son éveil..
A tout le moins je vous trouve extrêmement optimistes dans vos analyses sur les capacités actuelles et à venir des réseaux de neurones artificiels.

Les algos de d'apprentissage non supervisé sont une invention assez récente (une paire d'année). Il y a peu personne n'aurait parié un kopek sur les réseaux de neurones, maintenant toute la communauté de l' IA est à fond là dessus. C'est ptet une mode, comme la théorie des cordes, mais y' a beaucoup de gens qui y croivent

Mon impression est que tu es exagérément pessimiste quand aux capacités actuelles et à venir des réseaux de neurones artificiels, à la lumière de ce qui est explicité entre autre dans la video dont j'ai posté le lien.

quote:

Il ne vous a sans doute pas échappé que Searle évoquait les ordinateurs, pas les réseaux de neurones artificiels.. Pour autant,je ne crois pas que la différence entre ordinateurs et réseaux de neurones artificiels permette d'effacer la pertinence de son discours (qui aurait "15 ans de retard" - pour info ses propos datent de 2009) pas plus que celui de Penrose (pourtant différent sur la forme, pas sur la conclusion).


Il n' y a pas pire sourd que celui qui ne veut pas entendre. Les réseaux de neurones artificiels dont il est question ici tournent bien entendu dans des ordinateurs, donc le discours de Searle les englobe. Effectivement, la prétendue différence entre ordinateur et réseau ne risque pas d'affecter le degré de pertinence du discours de Searle (en l'occurence, je dirais que le degré de pertinence est nul, puisque l' assertion 1. de sa "démonstration" est manifestement fausse). En ce qui concerne Penrose, c'est moins clair : j' avoue humblement que je n' ai rien compris à ce qu'il raconte.

quote:
Plus le problème est complexe, plus il nécessite une base de données importante pour la "base d’apprentissage" : C'est coûteux en temps et en argent. De plus la détermination des descripteurs nécessite une analyse réalisée par un expert, et la même base de données brutes, selon les descripteurs qui en sont extraits, peut engendrer des réseaux de neurones aux performances très différentes.

Depuis l'avènement de 1) le web et 2) le Cloud, ça ne coute plus grand chose. Et grace à l' invention des algos d'apprentissage sans supervision, il n' y a plus besoin d'expert. Cf la vidéo dont j'ai posté le lien.

quote:
Lorsque les réseaux de neurones artificiels balanceront des blagues subtiles ils seront encore à combien du niveau réel de la conscience humaine ??...

Pas besoin de réseaux de neurones pour balancer des blagues. http://www.i-programmer.info/news/105-artificial-intelligence/6210- ai-is-funny-a-generative-joke-model.html


[Ce message a été modifié par PascalD (Édité le 13-01-2016).]

[Ce message a été modifié par PascalD (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

PascalD > "Les réseaux de neurones artificiels dont il est question ici tournent bien entendu dans des ordinateurs, donc le discours de Searle les englobe."

Non non, il n'évoque que les ordinateurs classiques dans cette partie de son exposé.. Mais peu importe.. De toute façon, les mots "sémantique" et "conscience" n'ont manifestement pas la même signification pour nous..

Quant à ta vidéo, impossible pour moi : C'est sous-titré uniquement en anglais, ou alors quelque chose m'échappe


"Il n' y a pas pire sourd que celui qui ne veut pas entendre".


Excellent, très bonne remarque, merci..
Pardon Votre Eminence de vous paraître aussi lamentable et laborieux.
Je me prosterne à vos pieds, si fins, si élégants , et me retire en silence (et même à reculons).. flap flap... encore pardon.. oui.. la porte, je sais..

PS > Le générateur de blagues des deux distingués chercheurs de l'Université d'Edimbourg a encore une belle marge de progression... on va dire

Partager ce message


Lien à poster
Partager sur d’autres sites
Les réseaux de neurones tournent dans des ordinateurs classiques, cher Vaufrèges. Mais pas dans des machines de Turing (qui sont des machines imaginaires qui ne peuvent pas exister dans le monde réel,et servent aux mathématiciens pour démontrer des théorèmes).
J'avais pour ma part l' impression que justement, on mettait la même sémantique derrière le mot "sémantique"
Manifestement, bien que parlant la même langue, on ne comprends pas la même langue ... Dommage que tu le prennes comme ça.

Partager ce message


Lien à poster
Partager sur d’autres sites
Tout pareil que PascalD.

Sinon Pascal, pour ta remarque chaos déterministe vs incertitude quantique,
Zurek dit seulement que le collapse de la fonction d'onde ne se fait pas de manière instantanée (contrairement au postulat de la réduction de la fonction d'onde) et est provoqué par l'interaction avec l'environnement. En revanche, cela ne conditionne pas (en dehors de l'aspect mélange statistique) la probabilité avec laquelle tu vas trouver ton système dans tel ou tel état. Il faut faire la différence entre les probabilités associées aux états purs, et celles liées au mélange statistique d'états.
Dans ta vision, la théorie de Zurek serait une sorte de théorie à variables cachées, ce qu'elle n'est pas.

Partager ce message


Lien à poster
Partager sur d’autres sites
Tournesol:
Je suis d'accord, les deux incertitudes ne sont pas strictement équivalentes (dans un cas, il y a violation des inégalité de Bell, dans l' autre non), mais dans la théorie de la décohérence, la raison à ce que tu appelles "collage des fonctions d'onde" lors de l' évolution du système, elle , est bien à chercher dans l' environnement (de l'observateur) au même titre que dans le cas du chaos déterministe. C'est similaire, sans être exactement la même chose.
A ma connaissance, à part t'Hooft et sa mécanique quantique à base d'automate à états finis déterministes, j' ai l'impression que tout le monde a renoncé, et les travaux de t'Hooft sont 'achement spéculatifs, donc je ne vais certainement pas essayer de défendre une stricte équivalence.

Vaufrèges (si tu es encore dans la pièce ): Désolé, la grande majorité des recherches dans ce domaine est faite par des boites privées américaines, pas par le CNRS, donc l'énorme majorité des documents décrivant ces recherches, écrits audio ou video, sont en anglais ... Heureusement, comme la recherche avance, je parie que dans peu de temps les ordinateurs qui selon Searle ne comprennent rien, pourront te traduire tout ça en temps réel juste à partir de la bande son dans un français approximatif, et tu pourras donc choisir ta langue

[Ce message a été modifié par PascalD (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Daniel, j'ai vérifié car j'avais un doute : les premiers travaux publiés par Searle à ce sujet datent bien de 1980, soit il y a 35 ans (J.R Searle, “Minds, Brains and programs”, The Behavioral and Brain Sciences, vol. 3, Cambridge University Press, 1980)
Voici le papier : http://cogprints.org/7150/1/10.1.1.83.5248.pdf
Tu noteras dans les références qu'il cite qu'une grande majorité se réfère à des publications de la décennie 70-80.
Même si l'image de la chambre jaune apparait plus tard dans ses conférences, elle se fonde bien sur l'informatique des années fin 70 - début 80.
Une époque où les ordinateurs ne communiquaient pas et n'avaient pas encore appris à apprendre.
D'autre part on en savait aussi moins long sur le fonctionnement du cerveau, bien moins long, même si on en ignore encore beaucoup évidemment, immensément beaucoup.
Des six sciences cognitives, deux ont accompli des progrès fulgurants sur cette période : les neurosciences et l'IA. Ce qui rend quelque peu obsolètes les raisonnements fondés sur des données anciennes, ou à tout le moins exige leur révision approfondie.

[Ce message a été modifié par Alain MOREAU (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pascal +1, Alain +1

En fait, je dirais que la question de la réalisation d'une IA forte ou faible ne peut être tranché sans réalisation pratique, puisque de toute façon, ça doit bien être un des rares domaines de la science où théorie et pratique sont pratiquement confondues (si je dois simuler un réseau de neurones [théorie] cela revient à réaliser en pratique ce réseau [expérience]).

Sinon, autant je ne crois pas au brain uploading, (compte tenu de la puissance de calcul que nécessite l'émulation fidèle d'un cerveau humain complet en temps réel, cf Blue Brain qui est loin de ce résultat), autant je crois aux IA avec réseaux neuronaux in silico lesquels parviennent maintenant à être souples (en terme de modulation synaptique) et peuvent bénéficier de l'aspect bruit quantique.
Néanmoins, je n'ai aucune idée, et je n'irais pas parier sur le résultat.

Cependant, je pense que c'est potentiellement une très mauvaise idée de créer des IA trop intelligentes !

Partager ce message


Lien à poster
Partager sur d’autres sites

Alain > Les propos de Searle que je rapporte datent de 1996 dans le mag "La Recherche" (lien donné au début de ce fil). Il y fait aussi un peu plus loin une critique du livre de Penrose "Shadows of the mind" auquel Richard Guillaume fait référence au début de ce fil dans son "Antithèse" pour démarrer le sujet.. Donc il faudrait aussi considérer la référence à Penrose comme ringarde ??...

PascaD > "Les réseaux de neurones tournent dans des ordinateurs classiques, cher Vaufrèges"

Sans blague !? ...
Je formule donc autrement pour, peut être, me faire comprendre : ".. dans cette partie de son exposé Searle n'a pas encore évoqué les réseaux de neurones". Il le fait plus loin dans sa critique de "Shadows of the mind"  de Penrose


"les ordinateurs qui selon Searle ne comprennent rien"

OK, à ce stade il vaut mieux que j'arrête de blablater par ici..

[Ce message a été modifié par vaufrègesI3 (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Comme le note vaufrègesI3 les réseaux de neurones sont utilisés, comme d'autres moyens de programmation, pour faire de la classification (d'images, de caractères, de sons, de n'importe quel ensemble de données par exemple un diagnostic à partir de résultats médicaux).

Le "Pattern classification" de Duda, Hart et Stork qui est un peu comme la "bible" du domaine - je l'ai cité plus haut http://eu.wiley.com/WileyCDA/WileyTitle/productCd-0471056693.html (c'est du costaud avec 738 pages le genre de bouquins que seuls (malheureusement) les anglo-saxons savent faire) situe bien le problème dans son introduction (extrait) :

quote:
Despite the existence of a number of excellent books that focus on a small set of specific techniques, we feel there is still a strong need for a book such as ours, which takes a somewhat different approach. Rather than focus on a specific technique such as neural networks, we address a specific class of problems — pattern recognition problems — and consider the wealth of different techniques that can be applied to it. Students and practitioners typically have a particular problem and need to know which technique is best suited. Books focusing on neural networks may not explain decision trees, or nearest-neighbor methods, or many other classifiers to the depth required by the pattern recognition practitioner who must decide among the various techniques. Such books organized around a technique first and foremost generally fail to provide deeper understanding of any single technique, understanding that comes from exploring the relationships among various techniques.
Je n'en traduis qu'une phrase :
"Les livres qui se concentrent sur les réseaux neuronaux ne peuvent pas expliquer les arbres de décisions et les méthodes du plus proche voisin ou de nombreuses autres méthodes de classification à un niveau nécessaire au praticien de problèmes de reconnaissance qui doit choisir parmi les différentes techniques".

C'est clair : un réseau de neurones ce n'est ni plus ni moins une technique de programmation pour faire de la "reconnaissance" avec ses avantages et ses inconvénients. Encore une fois, sur nos appareils photos, le logiciel qui détecte les visages n'est PAS basé sur un réseau de neurone. Pourquoi ? On a peur que nos compacts acquièrent une conscience ?

Tournesol a beau essayer de me faire passer pour un débile, il raconte n'importe quoi quand il affirme péremptoirement :

quote:
Il y a une différence entre le fait d'utiliser un code numérique avec un formalisme logique pour résoudre un problème, et le fait d'utiliser un code numérique avec un formalisme logique pour simuler un réseau de neurones et résoudre un problème. C'est un problème d'émergence.

C'est du grand, grand n'importe quoi il n'y a pas plus d'émergence que dans une méthode bayésienne, discriminante, "génétique", de chaîne de Markov, ... , qu'avec un réseau neuronal

Arrêtons de nous faire peur (ou de rêver, selon), on est bien loin de réaliser un HAL 9000 malgré les progrès réalisés en informatique et en neurosciences - progrès parfaitement inimaginables en 1968, il y a moins de 50 ans ... Rappelons nous qu'Amstrong et Aldryn ont failli se planter à cause de leur "ordinateur de bord" (même pas une petite calculette avec ses 4 kilo-octets de mémoire vive, le top à l'époque !!) et pourtant Clarke imaginait un ordinateur doté de conscience pour 2001 ...

Partager ce message


Lien à poster
Partager sur d’autres sites
ChiCyg, excuses moi de te demander pardon, mais là c'est toi qui raconte n'importe quoi.

Par ailleurs, il est de bon ton en science de ne pas se limiter à un seul ouvrage, surtout quand celui-ci a 15 ans !

Quant à passer sous silence la différence entre un réseau de quelques neurones avec un réseau pouvant en intégrer des centaines de milliards (actuellement on atteint le million dans les réseaux neuronaux in silico) pour pouvoir se moquer de mes propos en suggérant que j'ai pu supposer que la conscience pouvait émerger de n'importe quel petit réseau de neurones, ceci témoigne bien de tes pratiques habituelles de déformation des propos pour pouvoir décrédibiliser tes interlocuteurs par la moquerie ! Bref, c'est petit et médiocre !

Partager ce message


Lien à poster
Partager sur d’autres sites

Tournesol > "Par ailleurs, il est de bon ton en science de ne pas se limiter à un seul ouvrage, surtout quand celui-ci a 15 ans !"

Dites les techniciens, ce serait trop demander d'arrêter un peu avec ces "15 ans" lancés ironiquement plus haut par PascalD et de lire un peu ce que j'écris sur la date réelle des propos de Searle et du livre de Penrose ?..


Partager ce message


Lien à poster
Partager sur d’autres sites
Tournesol :
quote:
Par ailleurs, il est de bon ton en science de ne pas se limiter à un seul ouvrage, surtout quand celui-ci a 15 ans !
Si tu pouvais arrêter avec tes imprécations sur ce qu'est ou n'est pas la science et sur mon comportement, le tien ne me paraît pas franchement exemplaire ...

Je te cite deux références pour soutenir mon propos, tu n'en cites aucune.

La première est une "bible" dans le domaine, cite des papiers qui prouvent qu'elle est complètement dépassée, après on pourra discuter.

quote:
Quant à passer sous silence la différence entre un réseau de quelques neurones avec un réseau pouvant en intégrer des centaines de milliards (actuellement on atteint le million dans les réseaux neuronaux in silico) pour pouvoir se moquer de mes propos en suggérant que j'ai pu supposer que la conscience pouvait émerger de n'importe quel petit réseau de neurones

La taille du réseau ne change rien à l'affaire : l'article de la Recherche que j'ai cité traite de réseaux "d'une centaine de millions de synapses". Un des problèmes des réseaux neuronaux, comme toute méthode d'optimisation, est d'avoir des minimum locaux dont il est difficile de se sortir. D'après l'article, le fait d'avoir un réseau beaucoup plus étendu permet de sortir plus facilement des minimum locaux, pas de faire apparaître la conscience .

Croire que multiplier le nombre de ces neurones par un facteur mille provoquerait un phénomène "d'émergence" reste une chimère tant que tu ne peux pas citer des travaux qui laissent entrevoir ce phénomène.

Donner du crédit à tes propos entraîne le débat sur une fausse piste, c'est pour cela que je réagis.

Partager ce message


Lien à poster
Partager sur d’autres sites
Je suis parfaitement incompétent en la matière mais je suppose qu'il n'est pas interdit de poser une question (surement débile j'en suis bien conscient )

D'abord je ne comprends pas où chaque camp veut en venir : ceux qui pensent que la conscience n'est que le fait de l'homme (des animaux) et ceux qui estiment que la conscience peut aussi émerger d'un super ordinateur ?

Je me trompe surement de question mais s'il y a du vrai dans la première, il m'en vient une autre :
Comment peut-on dire que dans un super ordinateur pourrait émerger la conscience alors que c'est celle de l'homme qui a créé les bases de cette machine ?
Autrement dit la machine ne devrait elle pas n'avoir de "conscience" que celle dispensée par l'homme .


Partager ce message


Lien à poster
Partager sur d’autres sites
"Alain > Les propos de Searle que je rapporte datent de 1996 dans le mag "La Recherche" (lien donné au début de ce fil). Il y fait aussi un peu plus loin une critique du livre de Penrose "Shadows of the mind" auquel Richard Guillaume fait référence au début de ce fil dans son "Antithèse" pour démarrer le sujet.. Donc il faudrait aussi considérer la référence à Penrose comme ringarde ??..."
Et pourquoi pas ? Les plus brillants esprits (humains, pour commencer ) produisent une analyse et des conclusions sur les bases dont ils disposent à un instant donné : ce n'est pas faire offense à leur talent, voire leur génie, que d'admettre que 20 ans plus tard ils n'aboutiraient pas forcément aux mêmes conclusions avec des connaissances décuplées (il y a même fort à parier qu'ils en feraient encore meilleur usage que nous )
Si chaque grand nom de la science apporte sa pierre à l'édifice, aucun ne peut prétendre à la vérité ultime.
Quand Penrose écrit "Shadows of the mind", nous sommes en 94. Son esprit, si brillant soit-il, ne peut s'appuyer que sur les connaissances du moment. Je ne fais que rappeler cette évidence : l'élaboration des connaissances est un processus dynamique. On ne peut s'élever sur une moraine sans accepter qu'elle croule en partie sous nos pas, ce qui nécessite de rester confiant en sa capacité à nous porter plus haut, malgré que son édifice demeure friable et sa solidité toute provisoire car ce faisant nous contribuons aussi à son écroulement.
Maintenant je n'ai personnellement aucune capacité à critiquer sur le fond et de façon argumentée les (pro ) positions de Searle ou de Penrose, encore moins à prétendre les avoir comprises dans leurs implications les plus profondes...
Simplement je m'autorise à penser qu'en toute logique elles ne peuvent demeurer indéfiniment gravées dans le marbre de la Connaissance.
Mais peut-être s'agit-il là du piège dans lequel m'enferme l'illusion de mon propre libre arbitre
La pensée rationnelle - celle sur laquelle se fondent Searle et Penrose pour produire leurs conclusions - n'est qu'une petite partie de la pensée par laquelle nous tentons de rendre le monde intelligible. Les chercheurs les plus féconds sont souvent ceux qui se nourrissent de réflexions et d'expériences sensibles puisées à de tout autres domaines que ceux de leurs recherches : nombre d'entre eux cultivent des aptitudes artistiques, créatives, imaginatives, transcendant avec jubilation le champ formel du scientifique avec ses méthodologies contraignantes.
Bien plus que de simples divertissements, c'est souvent là que gît le terreau le plus fertile où prennent racine leurs intuitions, ils l'avouent volontiers.
De même, quelques bonnes heures de sommeil avec leur cortège de rêves abracadabrants, parviennent parfois à dénouer plus d'un noeud gordien sur lequel nos efforts conscients sont restés durablement sans résultat...
L'esprit pour produire du neuf a autant besoin de se nourrir de références que de s'en libérer en s'autorisant à vagabonder hors des sentiers battus : oser penser hors du cadre, en soi, c'est se permettre une forme d'irrespect nécessaire envers ses maîtres pour espérer un jour pouvoir les dépasser (sans pour autant leur manquer de reconnaissance, hein : ch'uis pas pour éradiquer les vieux, sinon mes jours sont comptés ! )
C'est dans l'expérimentation du sensible, dans l'incorporation acceptée d'une part d'irrationnel, que s'invite parfois l'inattendu au détour d'une sensation, d'un mot, d'une information en apparence anodins, qui tel une clé "magique" ouvre soudain la porte vers de nouvelles persectives encore jamais entraperçues.
Donc la question pour moi n'est pas de savoir si je suis apte à juger du travail de Searle ou de Penrose : la réponse est évidemment non.
Mais de savoir si l'on a aujourd'hui des arguments qui commencent à laisser entrevoir qu'ils ont pu se tromper, pour le meilleur ou pour le pire...
L'opinion des "fusées stratosphériques" m'intéresse au plus haut point, pourvu qu'ils continuent de l'exprimer avec décontraction : qu'on ait tort ou raison les uns les autres n'a pas grande importance, ce qui est important il me semble c'est que cette question nous traverse tous l'esprit et qu'elle soulève manifestement des réticences, voire des résistances, qui trahissent incontestablement une inquiétude au cas où nos maîtres à penser se tromperaient...
Qui vivra verra (pour peu qu'un jeune fougueux ne mette fin sans ménagement à mes élucubrations pour cause d'obsolescence prématurée, sans attendre que mon programme personnel ne se termine naturellement )

[Ce message a été modifié par Alain MOREAU (Édité le 13-01-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
A la lecture de ce débat intéressant (même si plein de choses m'échappent), je finis par penser que le jour où un réseau de neurones traitera d'abruti un autre réseau de neurones, on ne sera plus très loin de l'humain non ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Tout à fait, s'pèce d'imbécile
C'est que ça touche une corde sensible chez l'humain, ç't'affaire !

Partager ce message


Lien à poster
Partager sur d’autres sites
Désolé, Thierry, c'est que je t'ai reconnu implicitement comme l'un des miens !
(tu ne t'es pas fait greffer un de ces stupides bouts de silicium avec lesquels tu réalises tes merveilleuses photos, au moins ?)

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Croire que multiplier le nombre de ces neurones par un facteur mille provoquerait un phénomène "d'émergence" reste une chimère tant que tu ne peux pas citer des travaux qui laissent entrevoir ce phénomène.

Tu as raison, la meilleure preuve, c'est le cerveau humain (~ 85 milliards de neurones), ou des chats (~ 760 millions de neurones), ou des rats (~ 200 millions de neurones) qui sont des réseaux neuronaux, dont-il est bien connu que rien n'émerge !

Connais-tu la notion d'effet seuil ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant