in

Stimuler l'innovation en IA via l'apprentissage et le développement : la politique de Seer en matière d'IA


Depuis la haute direction, l'équipe Seer convient que l'intelligence artificielle est le plus grand perturbateur que nous verrons dans notre secteur à ce jour, transformant à la fois notre façon de rechercher et notre façon de travailler. Avec cela, Seer devait évoluer avec et montrer à notre équipe qu'il y avait un avenir pour eux dans cette prochaine itération. La principale question que nos dirigeants se posaient était de savoir comment préparer notre équipe à ces changements, et il est clair que Seer n'est pas la seule organisation à se poser ces questions.

Le Marketing AI Institute Rapport 2024 sur l'état de l'IA marketing continue de montrer que l’éducation est l’élément manquant le plus important, déclarant « Il s’agit du quatrième rapport annuel sur l’état du marketing sur l’IA, et chaque année, le manque d’éducation et de formation en IA est cité comme l’obstacle le plus courant à l’adoption de l’IA dans le marketing. »

Avant de passer directement à une feuille de route d'apprentissage et de développement pour l'équipe Seer et nos clients, nous devions franchir les premières étapes. Nous avons travaillé en étroite collaboration de manière interfonctionnelle pour fournir un soutien ciblé qui faciliterait au mieux les tâches quotidiennes de l'équipe et aurait le plus grand impact. La première étape de ce processus consistait à développer un Conseil de l'IA : une équipe centralisée et interorganisationnelle qui peut piloter la stratégie à travers les divisions, les services juridiques et les opérations, et recueillir l'adhésion des dirigeants. Nous approfondirons nos conclusions et nos conseils pour la création d'un conseil sur l'IA dans un prochain article.

S'aligner sur les bases

Tout d'abord, Seer ne voulait pas de malentendu sur notre position en matière d'IA – nous ne considérons pas cela comme un remplacement pour les humains effectuant ces tâches, mais plutôt comme une opportunité de réimaginer la façon dont nous abordons le travail que nous avons accompli pour cela. longtemps et utilisez-le comme un outil pour rendre ce quotidien plus efficace et plus agréable. Seer est fier d'être à l'avant-garde de l'innovation au sein de notre secteur, non sans avoir clairement défini les garde-fous juridiques et éthiques dont nous avons besoin pour protéger notre organisation, nos employés et nos clients tout au long du processus.

Pour clarifier notre philosophie, nous avons développé une politique d'IA à laquelle l'équipe Seer peut continuer à se référer tout au long de son parcours vers l'IA.

Étapes pour créer une politique d'IA

  1. Travailler avec la direction et le service juridique – Pour clarifier votre objectif et vos lignes directrices en matière d'intelligence artificielle, il est important de vous assurer que vous êtes aligné depuis le plus haut niveau sur l'objectif de l'IA au sein des organisations et sur ce qui est acceptable ou non. À partir de là, travaillez avec un conseiller juridique pour vous assurer que l’explication est clairement communiquée, bien définie et intègre les aspects juridiques que nous, sur le plan commercial, n’avons peut-être pas naturellement pris en compte.
  2. Intégrer la responsabilité et les considérations éthiques – Définir clairement que cette responsabilité ne sera jamais externalisée et que nous sommes en fin de compte responsables du travail que nous produisons. Il est important de définir clairement ce que nous allons pas utiliser l'IA pour – à aucun moment nous ne devons induire en erreur ou manipuler les clients, nous sont responsables de l'examen des résultats pour détecter les biais et les inexactitudes, et les employés ne doivent pas usurper l'identité d'une autre personne sans un consentement explicite et écrit et un cas d'utilisation définissable.
  3. Partager les cas d'utilisation approuvés et non approuvés – La clarté est synonyme de gentillesse, et plus nous pouvons expliquer clairement à nos employés les utilisations acceptables et les utilisations inacceptables, plus ils se sentent habilités à tester eux-mêmes. Nous détaillons les cas d'utilisation qu'il est acceptable d'utiliser seuls (par exemple, utiliser des données accessibles au public pour un brainstorming), les cas d'utilisation qui nécessitent une approbation (par exemple, exploiter des ensembles de données spécifiques qui ont choisi des clients approuvés pour des tests sur des plateformes sécurisées) et les cas qui sont inacceptables (par exemple, ne pas insérer de données personnelles dans ces modèles conversationnels).

Former l'équipe sur notre politique en matière d'IA

Seer a partagé la politique en matière d'IA avec notre équipe pour qu'elle l'examine par elle-même, puis a discuté de la signification et de l'objectif de cette politique au sein de notre société All Hands. Pour mieux favoriser le soutien individuel, nous avons utilisé notre système de gestion de l'apprentissage, Seismic Learning, pour mieux décomposer cela.

Dans le cadre de notre formation sur la politique en matière d'IA, nous avons davantage mis l'accent sur l'objectif, les considérations et les cas d'utilisation, en proposant des contrôles de connaissances tout au long pour aider à consolider ces points.

Nous avons ensuite interrogé notre équipe à la fin, avec des questions demandant aux employés de :

  • Reconnaissez qu'ils ont lu entièrement la politique d'IA de Seer.
  • Confirmez qu'en utilisant l'IA dans leur travail, ils acceptent de se conformer aux garde-fous définis dans la politique d'IA de Seer.
  • Démontrer qu’ils comprennent l’objectif de la politique.
  • Indiquez si les exemples de scénarios partagés sont des cas d'utilisation acceptables ou inacceptables, aidant ainsi notre Conseil de l'IA à évaluer la compréhension de l'équipe.
  • Confirmez les méthodes que nous utilisons pour obtenir l’approbation de cas d’utilisation spécifiques.

À partir de notre formation, nous avons évalué la compréhension de l'équipe pour identifier les lacunes potentielles et intégré une formation pour ces lacunes dans nos ateliers en direct en cours, que nous aborderons dans les prochaines étapes de notre programme de formation.

Dans le cadre de cette formation, il était important pour Seer d’ouvrir des voies de communication claires. Notre Conseil de l'IA effectue des enregistrements hebdomadaires dans toute l'organisation sur ce qui est travaillé avec l'IA, offre un soutien individuel à toutes les équipes et partage un e-mail centralisé pour toutes les questions et préoccupations formelles à partager avec l'ensemble du Conseil de l'IA et les membres de l'équipe de direction pour enquêter. pleinement.

Avec notre politique d'IA en place et l'équipe formée à ce sujet, nous avons partagé les licences de l'équipe ChatGPT avec tous les membres de l'équipe du compte. Cela nous permet de garantir que les conversations tenues avec ChatGPT ne sont pas utilisées dans les données de formation d'OpenAI. Bien qu'il s'agisse de notre outil de choix pour le moment, nous restons ouverts et testons à mesure que le marché évolue.

À partir de là, nous sommes passés à une formation tactique sur les éléments fondamentaux de la compréhension de ces modèles conversationnels et de la manière de les utiliser. Vous pouvez approfondir le processus d'analyse des perturbations avec notre vice-présidente de l'IA générative, où Alisa Scharf détaille comment Seer intègre l'IA dans nos offres.

Nous continuerons de partager notre expérience dans la direction d'une transformation de l'IA chez Seer dans une série continue d'apprentissage et de développement de l'IA de Seer pour notre équipe !



What do you think?

0 points
Upvote Downvote

Written by manuboss

Résumé des mises à jour importantes et des nouvelles fonctionnalités de Serpstat

Les meilleures innovations de produits seoClarity en 2024