Voici ce qu’a appris une équipe de robots à travers 500 millions de parties de cache-cache


5 millions de parties pour jouer à cache-cache entre deux équipes de robots (des avatars) dotés d’intelligence artificielle : les bleus et les rouges. 75 millions de parties de plus, ils ont appris a utilisé leurs environnements pour se cacher ou trouver selon l’équipe. Ces robots virtuels ont pu donc créer des stratégies pour gagner..
Nuage


Voici ce qu’a appris une équipe de robots à travers 500 millions de parties de cache-cache

Les robots virtuels d'OpenAI jouent à cache-cache.

Les robots étaient propulsés par OpenAI Five, un système informatique composé de cinq réseaux de neurones artificiels indépendants qui prennent des décisions de façon autonome et apprennent de leurs erreurs afin de développer des nouveaux comportements.

Radio-Canada

On peut apprendre beaucoup sur le processus décisionnel de robots propulsés par l’intelligence artificielle en les observant lorsqu’ils sont laissés à eux-mêmes. C’est ce qu’a fait l’équipe de recherche du laboratoire d’intelligence artificielle OpenAI avec sa dernière expérience, qui consistait à simuler des centaines de millions de parties de cache-cache entre deux équipes de robots.

Les règles du jeu étaient simples. Une équipe d’agents virtuels devait se cacher tandis que l’autre devait les trouver. Le nombre de membres de chaque équipe variait aléatoirement entre un et trois.

Les avatars étaient placés dans une arène fermée où se trouvaient des boîtes et des rampes manipulables. Ils avaient aussi la capacité de bloquer l’accès à ces objets à l’autre équipe afin qu’elle ne puisse pas les déplacer.

Les robots étaient propulsés par OpenAI Five, un système informatique composé de cinq réseaux de neurones artificiels indépendants qui prennent des décisions de façon autonome et apprennent de leurs erreurs afin de développer de nouveaux comportements.

OpenAI Five fonctionne avec l’apprentissage par renforcement, qui récompense l’algorithme lorsqu’il adopte les comportements recherchés. C’est d’ailleurs une technique qui sert à entraîner des animaux.

Pour les 25 millions de premières parties, les avatars qui devaient se cacher (l’équipe bleue) se sont simplement déplacés dans l’espace tandis que les avatars qui devaient les trouver (l’équipe rouge) les pourchassaient.

L’équipe bleue a ensuite compris qu’elle pouvait se servir des objets dans son environnement pour créer des forts impénétrables grâce aux objets qu’elle avait à sa disposition.

Les robots virtuels d'OpenAI construisent un fort.

Les robots construisent un fort.

PHOTO : OPENAI

75 millions de parties plus tard, l’équipe rouge a développé une contre-stratégie. Elle s’est mise à utiliser des rampes pour sauter par-dessus les obstacles.

L'équipe rouge de robots virtuels d'OpenAI se sert d'une rampe pour franchir une barrière.

L’équipe rouge se sert d’une rampe.

PHOTO : OPENAI

L’équipe bleue a riposté en cachant les rampes dans son fort avant de bloquer l’entrée avec les blocs. 

L'équipe de robots bleus d'OpenAI cache des rampes.

L’équipe bleue cache des rampes.

PHOTO : OPENAI

Quand une équipe apprend une nouvelle stratégie, elle crée une pression chez ses adversaires, qui doivent s’adapter. On peut faire une intéressante analogie avec l’évolution des êtres humains sur la terre, lors de laquelle il y avait une constante compétition entre les organismes, a expliqué l’un des membres de l’équipe de recherche d’OpenAI, Bowen Baker, en entrevue avec New Scientist. 

Se servir de bogues pour gagner

Bowen Baker a été surpris de voir à quel point l’intelligence artificielle pouvait s’adapter, peu importe les embûches.

Quand l’environnement de la simulation s’est élargi pour inclure davantage d’obstacles, l’équipe bleue avait de nouvelles boîtes plus allongées à sa disposition. Les robots pouvaient alors fabriquer des forts plus complexes et plus difficiles à pénétrer.

Ils ont aussi fini par comprendre qu’ils pouvaient bloquer l’accès aux rampes à l’autre équipe. OpenAI était alors certain que cela marquait la fin de l’expérience, mais l’équipe rouge a découvert un bogue qui lui permettait de franchir des barrières sans rampe.

Démonstration du « surf de boîte » des robots d'OpenAI.

Démonstration du « surf de boîte ».

PHOTO : OPENAI

Cette stratégie, baptisée surf de boîte par l’équipe de recherche, consiste à se déplacer sur une boîte après avoir grimpé dessus à l’aide d’une rampe qui ne pouvait être manipulée.

Selon OpenAI, cette séquence d’événements indique que l’intelligence artificielle pourrait avoir la capacité de proposer des pistes de solutions inédites à des problèmes dans le monde réel.

On veut que les gens imaginent ce qui se passerait si on organisait une compétition de la sorte dans un environnement bien plus complexe. Les comportements appris pourraient résoudre des problèmes pour lesquels nous n’avons pas encore de solution, a expliqué Bowen Baker au MIT Technology Review. 

L’équipe bleue a fini par trouver une stratégie infaillible pour gagner toutes les parties : bloquer l’accès à tous les objets, y compris les boîtes, avant de construire son fort.

https://ici.radio-canada.ca/

Ces mini-cerveaux humains ont été connec­tés à des robots et envoyés dans l’es­pace


C’est glauque !! Point vue éthique, je ne suis pas certaine, s’ils devraient continuer ce genre d’expérience. Des mimi-cerveau fait en laboratoire, mit dans des robots puis partir dans l’espace émet des ondes cérébrales comme des bébés prématurées.
Nuage


Ces mini-cerveaux humains ont été connec­tés à des robots et envoyés dans l’es­pace

par  Mathilda Caron 

D’après une étude publiée dans la revue scien­ti­fique Cell, des cher­cheurs de l’uni­ver­sité de Cali­for­nie, à San Diego, ont créé des « mini-cerveaux » humains pour les placer dans des robots. Ils les ont ensuite envoyés dans l’es­pace, ajou­tait le New York Times le 29 août 2019.

Ces orga­noïdes ont été déve­lop­pés à partir de cellules souches dans le labo­ra­toire du biolo­giste Alys­son Muotri. Connec­tés à des robots en forme d’arai­gnées, ils se déve­loppent désor­mais d’une manière inat­ten­due dans la Station spatiale inter­na­tio­nale (ISS). L’équipe de cher­cheurs a décou­vert qu’ils trans­met­taient des ondes céré­brales simi­laires à celles d’un bébé préma­tu­ré…

« Mes collègues me disaient que ces choses ne seraient jamais conscientes », raconte Muotri. « Main­te­nant, je n’en suis pas si sûr », confie-t-il. Cette étrange décou­verte amène­rait les scien­ti­fiques à revoir les limites de leurs recherches sur ces « mini-cerveaux » et les problèmes éthiques qu’ils posent.

Source : Cell

https://www.ulyces.co/

20 000 images d’abus pédosexuels détectées par jour grâce au robot Arachnid


Le Canada a créé un robot des plus utile et il est utilisé dans plusieurs pays. Arachnid détecte plus de 100 000 images par mois de pornographie juvénile qui est ensuite des analystes humains doivent confirmer ou non s’ils s’agit bien de vidéos, images pédosexuels. Ensuite, une demande aux hébergeurs de retirer ces images. Malheureusement, certains hébergeurs sont lents à agir et d’autres ne font absolument rien. Depuis 2 ans et demi, ce robot à détecter 9 millions d’images potentiellement de la pornographie juvénile et il y a eu 4 millions de demandes de retrait.
Nuage


20 000 images d’abus pédosexuels détectées par jour grâce au robot Arachnid


20 000 images d’abus pédosexuels détectées par jour grâce au robot

SERDJOPHOTO VIA GETTY IMAGES

Lorsqu’une telle image est repérée, le robot envoie un avis à l’hébergeur lui demandant de la retirer immédiatement.

La Presse Canadienne

MONTRÉAL — Toutes les 12 heures, le robot Arachnid, créé au Canada, détecte 10 824 nouvelles images d’abus pédosexuels sur Internet. Devant la prolifération de ce fléau sur le web, le Centre canadien de protection de l’enfance (CCPE), l’organisation à l’origine d’Arachnid, exhorte les entreprises de technologie à en faire davantage pour réduire l’accessibilité aux images d’abus pédosexuels.

Le terme Arachnid désigne une classe d’arthropode, dont fait partie l’araignée. Et comme celle-ci, le robot Arachnid tisse sa toile dans le monde virtuel pour détecter, à partir d’empreintes numériques, des images et des vidéos de pornographie juvénile.

Lorsqu’une telle image est détectée, le robot envoie un avis à l’hébergeur lui demandant de la retirer immédiatement.

Toutefois, ce ne sont pas tous les hébergeurs qui s’y conforment, comme l’a déploré René Morin, porte-parole du CCPE, en entrevue avec La Presse canadienne.

«Dans la majorité des cas, les hébergeurs vont obtempérer dans un délai de deux à trois jours, et les images vont être retirées. Car de se faire dire par une entité qui est proche des services policiers, que vous possèdez des images illégales sur votre serveur, ça ne vous donne pas envie de le laisser là. Il y a néanmoins un certain nombre d’hébergeurs qui vont agir moins rapidement, ou pas du tout.»

Le Centre canadien de protection de l’enfance demande aux entreprises du web de faire cause commune et à utiliser gratuitement l’application «Shield par Projet Arachnid».

«Si vous êtes un grand hébergeur comme Vidéotron ou Telus, et que certains de vos clients utilisent vos serveurs pour mettre des images de pornographie juvénile, vous ne le saurez pas nécessairement. Alors, on met une application de la technologie Arachnid à leur disposition pour qu’il puisse scanner leur serveur à la recherche de ce type d’images» a expliqué René Morin.

Selon le porte-parole du CCPE, les hébergeurs qui sont réticents contribuent à faire en sorte que des milliers de photos et de vidéos d’abus pédosexuels restent en ligne, «ce qui entraîne la revictimisation d’enfants ayant subi des abus sexuels.»

Au Canada, la loi oblige les fournisseurs d’accès internet et d’hébergement de contenu à rapporter tout incident de pornographie juvénile aux autorités policières.

La technologie développée par le Centre canadien de protection de l’enfance a attiré l’attention de plusieurs organisations dans le monde.

Des centrales de signalement d’exploitation sexuelle d’enfants aux États-Unis, en Finlande, en Suède, en Colombie, au Royaume-Uni et en Croatie, utilisent maintenant Arachnid.

Validé par des humains

Arachnid n’agit pas seul. Des analystes du Centre canadien de protection de l’enfance doivent valider chacune des images détectées par le robot. Ces employés voient défiler des milliers d’images de pornographie juvénile devant leurs yeux.

«Ce n’est pas léger comme travail, on est conscient de la charge émotionnelle associée à ce travail. Mais on tient à s’assurer de la qualité des données versées dans la base de données d’Arachnid, donc ça doit être vérifié par des humains»,  a indiqué M. Morin.

Arachnid détecte plus de 100 000 images différentes par mois. Selon M. Morin, si le robot repère toujours plus d’images, c’est par ce qu’il ne cesse d’évoluer et de s’adapter pour améliorer ses capacités, mais aussi parce qu’il y a malheureusement de plus en plus de sites web contenant de la pornographie juvénile.

Depuis son lancement il y a deux ans et demi, Arachnid a détecté plus de neuf millions d’images potentiellement associées à des abus pédosexuels et a formulé près de quatre millions de demandes de retrait à des hébergeurs dans le monde entier.

https://quebec.huffingtonpost.ca/

Achat d’abonnés sur Instagram: une pratique «frustrante» mais «très présente»


Être influenceur sur les réseaux sociaux peut s’avérer payant. Cependant, il y a beaucoup de tricherie. Des personnes vont acheter des abonnés et utilisés des robots pour des mentions, j’aime. Est-ce normal qu’une blogueuse sur Instagram passe de 294 à plus de 15 000 abonnés en 40 minutes ? Si on peut les reconnaître, il serait bien des éviter de ces tricheurs
Nuage


Achat d’abonnés sur Instagram: une pratique «frustrante» mais «très présente»

The Pretty Runner, personnage sur Instagram créé dans... (PHOTO MARTIN TREMBLAY, LA PRESSE)

The Pretty Runner, personnage sur Instagram créé dans le cadre d’une enquête de La Presse, s’est acheté des abonnés, a échangé des commentaires et a utilisé des robots pour obtenir des mentions « J’aime ».

PHOTO MARTIN TREMBLAY, LA PRESSE


ÉMILIE BILODEAU
La Presse

« Acheter des abonnés, c’est une pratique qui nuit aux gens qui travaillent vraiment fort pour avoir de vraies interactions sur Instagram », a réagi l’influenceuse Catherine Francoeur à la suite de la publication, hier, d’une enquête de cinq mois de La Presse pendant laquelle nos journalistes ont créé de toutes pièces un personnage sur Instagram.

The Pretty Runner s’est acheté des abonnés, a échangé des commentaires et a utilisé des robots pour obtenir des mentions « J’aime ». Malgré ses méthodes controversées, elle a été approchée par des entreprises et par la Ville de Montréal, qui lui ont offert 3500 $ en argent et en cadeaux.

Catherine Francoeur est présente sur les plateformes YouTube et Instagram depuis huit ans, « avant même que le mot « influenceur » n’existe », dit-elle. Celle qui gagne sa vie grâce aux réseaux sociaux constate que son métier a changé au cours des dernières années.

« Sans dénigrer personne, au début, tout le monde se lançait sur YouTube et sur Instagram par passion parce que personne ne pouvait en vivre. Aujourd’hui, c’est sûr qu’il y a des gens qui trouvent attrayante l’idée de recevoir des trucs gratuits et des voyages. » – Catherine Francoeur, influenceuse

Mme Francoeur confirme que l’achat d’abonnés est « très présent » sur Instagram. « Sans les nommer, il y a des noms qui circulent dans le domaine », raconte-t-elle, refusant toutefois de dévoiler l’identité de ces personnes.

PL Cloutier, qui a été nommé l’influenceur préféré des 18-34 ans selon un sondage Léger l’année dernière, a aussi commenté le reportage publié dans La Presse.

« OMG ! ! Hahaha wow ! Moi-même je serais tombé dans le panneau je pense ! Les photos sont vraiment belles et y’a tellement d’effort dans ce compte que de vrais abonnés auraient fini par arriver avec le temps ! Presque déçu que ça arrête ! », a-t-il écrit sur le compte de The Pretty Runner, une fois sa véritable identité révélée, hier.

Il n’a pas été possible de le joindre au téléphone.

La blogueuse Mayssam Samaha a répliqué à son commentaire sur Instagram. « C’est pas vrai PL que les abonnés finissent par arriver parce que tu fais du beau contenu. Je considère mon contenu pas pire, j’y travaille fort et je n’ai jamais utilisé aucun service externe mais les abonnés n’arrivent malheureusement pas. »

Mayssam Samaha est l’auteure du blogue Will Travel for Food. Elle est inscrite à Instagram depuis huit ans et elle publie régulièrement des photos de cuisine et de voyage. Malgré tout, elle ne compte que 5127 abonnés.

« C’est un peu frustrant comme ancienne sur Instagram de voir des comptes qui débutent et qui me dépassent en nombre d’abonnés. Je sais à quel point c’est difficile d’en gagner de nouveaux. » Mayssam Samaha, blogueuse, en entrevue avec La Presse

La blogueuse est tout de même satisfaite du travail d’Instagram qui élimine beaucoup de faux abonnés sur sa plateforme, dit-elle. Toutefois, elle trouve que le réseau social pourrait être plus sévère envers ceux qui utilisent des outils pour gonfler leurs abonnés, leurs mentions « J’aime » ou leurs commentaires.

« Je trouve que ceux qui achètent des abonnés ne sont pas pénalisés du tout. Peut-être qu’Instagram pourrait suspendre leur compte pendant quelques jours ou quelques semaines. Les gens qui dépendent de leur compte, ça les affecterait davantage. »

The Pretty Runner a acheté 15 000 abonnés pour 75 $ lors de l’enquête qui a débuté en décembre dernier. Lorsque son compte est passé de 294 à 15 500 abonnés en 40 minutes, il n’a en effet jamais été bloqué.

ET LES AGENCES ?

Hier, l’agence de communication Tact Intelligence-conseil a fait circuler le reportage de La Presse parmi tous ses employés.

« C’était presque un devoir que tout le monde lise ça. En même temps, personne n’est tombé en bas de sa chaise », explique Daniel Matte, associé fondateur de l’agence.

M. Matte confirme qu’il n’existe aucun outil fiable à 100 % pour vérifier la crédibilité d’une personne sur Instagram. Pour cette raison, l’agence travaille souvent avec le même petit bassin d’influenceurs avec lesquels s’est développée une relation de confiance.

Le reportage, qui a montré la facilité avec laquelle on peut s’acheter des abonnés et des « J’aime », va assurément remettre en question la collaboration avec de nouveaux influenceurs, dit M. Matte.

« Mais je dois dire qu’on faisait déjà preuve de prudence. Tout le monde peut s’improviser influenceur. Il y a des gens qui sont partis de zéro, ils sont de réels influenceurs et leur contenu est intéressant. Mais vous avez fait la démonstration qu’il peut aussi y avoir beaucoup de faux là-dedans. »

L’agence Kabane a également diffusé l’enquête de La Presse sur sa messagerie interne et les employés ont pu la commenter. Là encore, les pratiques litigieuses divulguées dans le reportage étaient connues des employés.

« Ce reportage va ouvrir les yeux du grand public sur ce qui se passe avec les comptes Instagram qui paraissent si beaux, mais qui sont vides en fait, a dit Thomas Picos, président de l’agence. Si on éduque le grand public, ça veut dire qu’on éduque les clients d’agence. De ce fait, les agences vont aussi devoir adopter de meilleures pratiques et s’améliorer. »

https://www.lapresse.ca/

Vaccins: des robots en ligne alimentent la désinformation


La rougeole augmente même au Canada. Il est triste de voir que la désinformation semble gagner du terrain. Il semble qu’en plus des robots se mettent de la partie.
Nuage

 

Vaccins: des robots en ligne alimentent la désinformation

 

L'administratrice en chef de la santé publique a... (PHOTO DAVID GOLDMAN, ARCHIVES ASSOCIATED PRESS)

L’administratrice en chef de la santé publique a souligné que les acteurs malveillants en ligne peuvent être très efficaces pour alimenter la méfiance des parents.

PHOTO DAVID GOLDMAN, ARCHIVES ASSOCIATED PRESS

La Presse Canadienne
Ottawa

 

L’administratrice en chef de la santé publique du Canada a déclaré que l’émergence de robots en ligne conçus pour semer la méfiance complique encore davantage la lutte contre la désinformation liée aux vaccins.

La docteure Theresa Tam a affirmé que des robots répandaient des fausses déclarations sur la vaccination. Elle a ajouté que la désinformation sur les médias sociaux était au moins en partie responsable de la progression de 300 % des cas de rougeole observée cette année.

L’administratrice en chef de la santé publique a souligné que les acteurs malveillants en ligne peuvent être très efficaces pour alimenter la méfiance des parents, semer des doutes et persuader les gens à tort qu’un débat sur la vaccination est en cours entre experts fiables de la santé publique.

S’adressant aux journalistes après un événement vendredi à Ottawa, Mme Tam a expliqué que le niveau de vaccination au Canada pourrait baisser par rapport à son niveau actuel – qu’elle a décrit comme n’étant pas assez élevé, bien que pas épouvantable.

Elle affirme que toute personne peut être victime d’informations erronées en ligne, car même une courte exposition à ces informations peut changer l’idée de quelqu’un. L’administratrice en chef de la santé publique est particulièrement préoccupée par le fait que de 20 à 30 % des parents se posent des questions sur les vaccins.

Mme Tam a dit que la clé était de s’assurer que les parents qui ont des questions obtiennent des réponses fiables fondées sur des données scientifiques de la part de prestataires de santé.

https://www.lapresse.ca/

La technologie va-t-elle trop vite pour l’humanité?


Pour le commun des mortels, il y a probablement une sensation que tout va trop vite. Bien que nous apprécions certains avantages, l’intelligence artificielle, la robotisation donne l’impression que le travailleur perd du terrain et qu’il n’y a pas de solution de rechange. Sans compter cette impression de surveillance un peu partout. Devons-nous être inquiet, être alarmiste devant cette rapidité que tout change en moins temps que prévu ?
Nuage

 

La technologie va-t-elle trop vite pour l’humanité?

 

CAIAIMAGE/RANA DIAS VIA GETTY IMAGES

La quatrième révolution industrielle est en marche. Doit-on la craindre?

La technologie va-t-elle trop vite pour l’humanité? Explosion des données en circulation, emplois menacés par les robots, fiscalité incertaine et intelligence artificielle menaçante ont occupé les esprits toute la semaine à Davos.

Preuve de cette forte préoccupation, 75 pays ont eu recours à Davos au multilatéralisme et à l’Organisation mondiale du commerce (OMC), pourtant mal en point depuis l’arrivée de Donald Trump à la Maison Blanche, et promis d’engager des discussions afin de réguler de manière « plus efficace le commerce en ligne ».

À cette occasion, les États-Unis et la Chine ont enterré un instant la hache de guerre pour se joindre à ce groupe, même si Pékin ne s’est engagé qu’en dernière minute vendredi matin, a indiqué le directeur général de l’OMC, Roberto Azevêdo, lors d’une conférence de presse.

Le discours le plus alarmiste a certainement été tenu jeudi soir par le milliardaire-philanthrope George Soros, lors du dîner qu’il donne traditionnellement en marge du Forum économique mondial.

Je veux attirer l’attention sur le danger mortel que font courir aux société ouvertes les instruments de contrôle que le « machine learning » et l’intelligence artificielle mettent dans les mains de régimes répressifs.George Soros

Autre préoccupation: la menace que fait peser sur les emplois la robotisation, dans un monde où les inégalités se creusent et où la peur du déclassement alimente le populisme.

« Toute ces entreprises tech et non tech ont une très grande responsabilité », a dit Jean-Philippe Courtois, vice-président exécutif de Microsoft, à l’AFP.

Les fruits de l’économie numérique doivent être redistribués « à une plus grande masse de personnes », selon lui, ce qui implique de faire des efforts « dans l’éducation ».

Les entreprises « sous-estiment l’accélération du rythme de la digitalisation, les changements de comportement et de technologie qui dictent ce rythme et, surtout, l’ampleur de la +disruption+ qui les attend », a noté la société de conseil McKinsey dans une récente étude.

Pour prendre l’exemple du secteur financier, « il a été conçu pour servir des gens qui travaillent de 9h à 17h, pour un seul employeur, souvent pendant toute leur carrière », constate Bill Ready, directeur opérationnel de la société de paiement par Paypal.

« Quand la façon de gagner de l’argent change, la manière dont l’argent est versé et géré doit changer aussi », a-t-il dit.

Microsoft, de son côté, a choisi de se tourner vers l’informatique dématérialisée, le « cloud », après avoir constaté que sa vache à lait traditionnelle, le système d’exploitation Windows, perdait du terrain.

Dans un local installé dans la rue principale de Davos, le géant américain montre des vidéos censées représenter les petites révolutions promises par l’intelligence artificielle.

Par exemple le « supermarché du futur », avec des capteurs qui permettent d’alerter immédiatement le service de nettoyage si une brique de lait s’écrase par terre.

Mais les entreprises « doivent être super claires sur ce qu’elles veulent faire », alors que les innovations technologiques suscitent leur lot de tensions, autour des VTC par exemple, ou de l’impact d’AirBnB sur le marché immobilier et hôtelier.

4e révolution industrielle

Cette « quatrième révolution industrielle » va « plus vite que quiconque l’attendait », explique Murat Sonmez, expert du Forum économique modial, l’organisation qui gère la réunion de Davos mais produit aussi un grand nombre de rapports ou expertises.

« Les entreprises et les gouvernements prennent du retard, et restent coincés en arrière », selon lui.

L’influence des réseaux sociaux sur les processus politiques, la confidentialité des données personnelles mais aussi la fiscalité des géants de la tech sont autant de défis pour les Etats.

La numéro deux de Facebook, Sheryl Sandberg, a elle profité de sa venue à Davos pour tâcher de redorer l’image du groupe, ternie par le scandale Cambridge Analytica.

« Nous n’avons pas anticipé tous les risques liés au fait de relier autant de gens entre eux », a-t-elle dit lors d’une rencontre organisée par l’hebdomadaire allemand Die Zeit. « Nous avons besoin de regagner la confiance », a-t-elle ajouté.

https://quebec.huffingtonpost.ca

Le Saviez-Vous ► L’agalmatophilie : l’amour des statues


Préféré aimer une statue, marionnette, poupée, robot qu’un humain, me semble inconcevable. Je crois malheureusement, il va en avoir de plus en plus surtout avec des robots qui ressemble presque parfaitement à des humains.
Nuage

 

L’agalmatophilie : l’amour des statues

bustes grecs statues

Share

Crédits : Pixabay

par Louison

Dans les jardins, les parcs ou les musées, elles nous observent en silence alors que nous passons. Parfois, nous leur rendons leurs regards en nous arrêtant quelques minutes, le temps de les admirer. Mais si les statues pouvaient parler, elles nous raconteraient sûrement les obscénités qu’elles ont pu vivre pendant leurs siècles d’existence

 Qu’est-ce que l’agalmatophilie, ou l’amour envers les statues ?

Les statues : un reflet de nous-mêmes

Les statues, et plus largement les poupées, marionnettes ou même les mannequins sont des objets inanimés nous représentant. En effet, l’agalmatophilie ne concerne que des objets représentant un humain. Cette attirance est finalement assez ironique, car certains sculpteurs se sont attachés à créer la beauté absolue, que ce soit chez un homme ou une femme. Ils seraient sûrement surpris de l’effet de leur travail sur un agalmatophile.

On commence à parler d’agalmatophilie quand une personne est réellement attirée sexuellement par l’un des objets cités plus haut. Le fait de trouver une sculpture jolie ou de la considérer comme une œuvre d’art est simplement un compliment envers l’artiste. Ainsi, pour une personne agalmatophile, il serait tout à fait naturel de palper une statue ou un mannequin, et d’avoir des relations sexuelles avec.

L’agalmatophilie : un fétichisme

Cette attirance est classée parmi les paraphilies, et est simplement considérée comme un fétichisme. Elle très souvent lié à des fétichismes comme celle envers les robots, qui consiste à être attiré·e par les androïdes, ou celui des poupées.

Si chez certains les statues sont attirantes, pour d’autres il va s’agir de véritables objets de terreur. À ce sujet, il existe par exemple l’agalmatorémaphobie, qui est la peur que les statues prennent vie

 

https://lesavaistu.fr/