D'abord un humain n'apprend pas comme ça. Ensuite c'est pas de l'intuition, c'est une fonction d'évaluation.
Qu'est-ce qui te dit que dans un cerveau il n'y a pas une sorte de "fonction d’évaluation" biologique ?
"Un humain n'apprend pas comme ça" dis-tu : Certes mais un avion ne vole pas comme un oiseau et pourtant il vole beaucoup plus vite. Je ne multiplie pas les exemples, tu auras compris l'analogie, ce qui compte c'est l'efficacité du résultat (l'IA peut ne pas penser comme un humain et être plus compétente, c'est d'ailleurs de plus en plus le cas). Une IA va développer des hyper compétences dans tous les domaines (dont l'intelligence pure, la mémoire, la créativité, l'organisation et la gestion, etc.) je ne vois pas comment on ne pourrait pas lui attribuer des fonctions analogues à l'intuition (une "intuition" souvent fausse chez les humains, précisons-le). Selon moi, une intuition est simplement une sorte de raisonnement d'arrière-fond formant peu à peu une pensée inconsciente qui a un moment donné passe le seuil de la conscience pour émerger "à nous" (d'où l'importance du lâcher prise mental pour éviter d'essayer de tout contrôler consciemment donc lentement et parfois inefficacement). Les IA font des "raisonnements" tellement complexes qu'on ne sait plus ce qui se passe en elles, ce qui sort en bout de course peut être une proposition proche de l'intuition dès lors qu'il ne s'agit pas d'une opération simple (un calcul, de base par exemple).
Je ne me suis pas posé la question de savoir si je considère qu'il y a de l'intuition dans un boulier, tout aussi débrouillard soit-il...