Une étrange révolution silencieuse s’est glissée dans nos écrans: les IA dialoguantes. Elles nous répondent avec un aplomb désarmant, un ton chaleureux, une fluidité presque humaine. Et, forcément, nous tombons dans le piège. Nous leur prêtons des intentions, des émotions, des certitudes — comme si derrière la phrase bien tournée se cachait un interlocuteur authentique. Hélas, il n’y a derrière ces réponses qu’une simulation brillante, sans intériorité, sans vécu, sans responsabilité. Autrement dit: une imitation de conversation, pas une présence.
Le risque majeur avec l’IA générative n’est ainsi pas technologique, mais cognitif. Nous glissons, presque malgré nous, vers une humanisation de la machine. Et c’est là que les ennuis commencent. Car dès que nous croyons que «quelqu’un» nous répond, nous abaissons notre vigilance. Nous déléguons. Nous faisons confiance. Nous imaginons une compréhension là où il n’y a qu’une probabilité calculée. Dans un secteur de l’économie où l’attention, la relation, la nuance et l’interprétation sont essentielles, ce glissement cognitif pourrait devenir le malentendu majeur de notre époque.
L’IA n’a ni émotions ni intentions. Tout ce qu’elle produit, c’est nous qui le portons et qui en assumons les conséquences
Il n’est pourtant pas question de renoncer à l’IA. Bien utilisée, elle peut accélérer la recherche, proposer des options, servir de miroir cognitif. Elle peut simplifier le quotidien administratif, former les nouveaux collaborateurs, clarifier des processus trop complexes. Mais elle ne peut ni ressentir, ni comprendre, ni assumer. Elle n’a ni corps, ni mémoire personnelle, ni volonté. Elle ne «veut» rien. Tout ce qu’elle produit, c’est nous qui le portons, nous qui en assumons les conséquences, nous qui devons lui donner un sens.
C’est pour cela que j’appelle sans cesse à une sobriété intellectuelle: une discipline mentale visant à ne jamais confondre la forme (humaine) de la réponse avec l’objet (non humain) qui la génère. Je m’impose pour cela trois gestes simples au quotidien: refuser l’anthropomorphisme en me rappelant que l’IA n’a ni émotions ni intention; adopter une posture algorithmique en la voyant comme un outil qui classe et combine des mots, et non comme un cerveau; et cultiver une réflexivité permanente en vérifiant toujours si ce que je lui délègue sert vraiment mon travail et mes clients. Ce n’est pas de la méfiance, mais une hygiène vitale de pensée.
Dans le tourisme et l’hôtellerie-restauration, cela prend une signification particulière. Oui, l’IA peut nous aider. Non, elle ne remplacera jamais le tact d’un accueil, la sensibilité d’un service, la responsabilité d’un jugement humain. La vraie question n’est plus: «Que peut faire l’IA pour nous?» Elle peut tout faire. Mais plutôt: «Comment rester pleinement sujets dans un monde où tout, même le langage, peut être simulé?». Le tourisme de demain ne sera humain que si nous savons reconnaître ce qui pense vraiment: c’est-à-dire nous. Le sujet, plus que jamais, c’est nous!
Expert en tourisme, Thomas Steiner est CEO d’Immotour Sàrl, professeur à la HES-SO Valais-Wallis et membre du comité de Suisse Tourisme.
