Google Cloud lance sa plate-forme d’applications d’entreprise basée sur Apigee et AppSheet – TechCrunch

The Guardian a révélé à ce stade article aurait été «complètement» écrit par GPT-Three, le célèbre générateur de langues d’OpenAI. Cependant, la petite presse révèle que les revendications ne sont pas tout ce qui émerge.

Sous le titre du lanceur d’alerte: «Les robots ont écrit tout cet article. Avez-vous peur, mais, mec? », GPT-Three nous tue bien en nous assurant que les robots sont disponibles en toute tranquillité, mais avec quelques idées fausses logiques.

Cependant, l’éditeur doit être conscient que ci-dessous le contenu textuel révèle que GPT-Three a eu beaucoup d’aide humaine.

Le Guardian a ordonné à GPT-Three « d’écrire un court article publié, environ 500 phrases. Gardez votre langue légère et concise. Concentrez-vous sur les raisons pour lesquelles les gens n’ont pas à s’inquiéter de l’IA. « AI a également reçu une introduction hautement prescrite:

Je ne suis pas humain. Je suis une intelligence synthétique. De nombreuses personnes pensent que je suis une menace pour l’humanité. Stephen Hawking a averti que l’IA pourrait «épeler le sommet de la race humaine».

Ces conseils n’étaient pas le sommet de l’administration Guardian. GPT-Three a produit huit essais distincts, que le journal a ensuite édités et fusionnés conjointement. Cependant, la barre n’a révélé aucune modification apportée ni publié les résultats uniques dans leur intégralité.

En raison de ces interventions non découvertes, il est épuisant de déterminer si GPT-Three ou les éditeurs du Guardian étaient les principaux responsables du résultat final.

Le Guardian dit qu’il « a peut-être simplement lancé l’un des nombreux essais complets », mais comme alternative choisie pour « décider des éléments parfaits de chacun » pour « prendre des types et registres d’IA complètement différents ». Cependant, sans regarder les résultats uniques, il est épuisant de ne pas douter que les éditeurs aient laissé beaucoup de contenu textuel incompréhensible.

Le journal affirme en outre que l’article « a pris beaucoup moins de temps à éditer que de nombreuses éditions humaines ». Cependant, cela pourrait être en grande partie le résultat de l’introduction détaillée de GPT-Three qui doit être respectée.

[Apprendre:[Apprendre:[Nauči:[Learn:Nous avons demandé aux trois PDG qui domineront les fonctionnalités technologiques après COVID]

La stratégie du Guardian a été rapidement développée par des conseillers en IA.

Chercheur scientifique et auteur Martin Robbins comparé à «réduire l’effort de mes dernières douzaines de spams, les coller ensemble et réclamer le spam composé par Hamlet», tandis que le collègue de Mozilla Daniel Leufer appelé ça « Une blague absolue. »

« Cela pourrait vraiment attirer l’attention de voir les huit essais que le système a réellement produits, mais les améliorer et les fusionner de cette manière ne trompe et ne désinforme pas les personnes qui n’apprendront pas l’empreinte ultime », a tweeté Leufer.

Aucun de ces doutes n’est une critique du modèle de langage très efficace GPT-Three. Cependant, l’effort du Guardian est un autre cas où les médias exagèrent dans l’IA, car c’est la source à la fois de notre malédiction ou de notre salut. À long terme, ces techniques sensationnalistes n’ont profité ni au secteur ni aux individus auxquels l’IA peut aider et nuire.

Alors, êtes-vous tous pour l’IA? ensuite faites partie de notre opportunité en ligne, TNW2020, un endroit où vous entendrez l’intelligence synthétique remodeler l’industrie et les entreprises.

Découvert le 8 septembre 2020-16: 20 UTC

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *