Comment intégrer l'IA générative à votre entreprise sans compromettre la sécurité ?
Temps de lecture : 8 minutes
ChatGPT a indéniablement capturé l'imagination collective en générant une attention substantielle et des discussions ferventes. Malgré le buzz considérable autour de ChatGPT ces derniers mois, les entreprises ont choisi d'aborder sa mise en œuvre avec circonspection, en considérant les implications et les risques potentiels (sécurité, GDPR et autres). Dans ce blog, nous nous pencherons sur les facteurs qui ont conduit à restreindre l'utilisation de ChatGPT dans les entreprises. Nous explorerons des modèles alternatifs pour tirer profit du fantastique potentiel offert par l'IA générative sans compromettre la sécurité.
La consumérisation de l'informatique et les risques de sécurité
Il est essentiel de maintenir une frontière claire entre vie personnelle et vie professionnelle. Si certains outils personnels peuvent s'avérer utiles dans un cadre professionnel, il est important de tenir compte du fait qu'ils n'ont pas été initialement conçus en tenant compte des exigences de confidentialité et de sécurité d'un environnement professionnel. Revenons sur la révolution majeure qu'a constituée l'introduction de l'iPhone d'Apple en 2007. Il s'agit d'une révolution importante, car avant son arrivée, les téléphones comme Nokia et Blackberry dominaient le marché. Cependant, l'arrivée de l'iPhone a entraîné un changement de paradigme avec l'émergence des smartphones. Grâce à ses caractéristiques uniques, tout le monde voulait un iPhone. Cependant, l'intégration d'applications personnelles et d'e-mails sur ces appareils a brouillé la frontière entre vie personnelle et vie professionnelle, ce qui présente des risques tels que la fuite d'informations et un contrôle réduit des données.
De même, l'avènement de ChatGPT peut être considéré comme un remake de l'ère iPhone. Conçu à l'origine pour un usage personnel, ChatGPT s'est avéré très productif et attrayant pour les tâches professionnelles. Cependant, il est important de noter que ChatGPT n'a pas été explicitement développé pour répondre aux exigences d'un environnement professionnel. Il lui manque certaines fonctionnalités telles que la sécurité, la confidentialité des données, des citations juridiques précises et des informations actualisées.
Bien que ChatGPT, construit à l'aide de grands modèles de langues (LLM), soit très prometteur, sa mise en œuvre dans l'entreprise d'aujourd'hui doit être évaluée avec soin. Voyons plus en détail comment les entreprises réagissent à ChatGPT.
Que disent les entreprises ?
L'enthousiasme pour ChatGPT est monté en flèche peu après sa création, captivant les utilisateurs une semaine à peine après sa création. Avec un taux de croissance étonnant, ChatGPT a déjà amassé une base d'utilisateurs impressionnante de 100 millions d'individus, accomplissant cette étape remarquable en seulement deux mois.
En 2023, ChatGPT devrait générer un revenu substantiel de 200 millions de dollars. Cependant, sa trajectoire ascendante ne montre aucun signe de ralentissement. Dans une récente présentation aux investisseurs, OpenAI prévoit que d'ici à la fin de 2024, ChatGPT s'élèvera encore plus haut, avec un revenu estimé à 1 milliard de dollars, consolidant ainsi sa position d'acteur dominant sur le marché.
Même si OpenAI prévoit une forte croissance des revenus, plusieurs grandes entreprises ont mis en place des restrictions sur l'utilisation de ChatGPT et d'autres outils d'IA générative pour leurs employés. De grandes entreprises comme Apple, JP Morgan Chase, Deutsche Bank, Verizon, Accenture ont interdit l'utilisation de ces outils pour des raisons de confidentialité des données d'entreprise.
Selon CNET, la mémo de Samsung disait, "Le siège examine les mesures de sécurité afin de créer un environnement sûr pour l'utilisation en toute sécurité de l'IA générative afin d'améliorer la productivité et l'efficacité des employés. Cependant, jusqu'à ce que ces mesures soient préparées, nous restreignons temporairement l'utilisation de l'IA générative".
CNN a récemment rapporté que JPMorgan Chase a demandé à ses employés de ne pas saisir d'informations sensibles dans le chatbot libre d'accès d'OpenAI, en invoquant des problèmes de conformité avec des logiciels tiers. Les risques potentiels liés à l'utilisation quotidienne d'outils tels que ChatGPT ont également été soulignés par Nozha Boujemaa, vice-présidente chargée de l'éthique numérique chez IKEA comme le rapporte AI Business. Ces mises en garde reflètent la nécessité d'une réflexion approfondie et d'une évaluation des risques lors de l'utilisation des technologies de chatbot d'IA dans des environnements sensibles ou réglementés.
3 préoccupations majeures pour les entreprises :
🛡️ Confidentialité et sécurité des données : La sécurité des données et le respect des lois sur la confidentialité des données sont des préoccupations majeures lors de l'incorporation d'informations dans les prompts. Camilla Winlo, responsable de la confidentialité des données chez Gemserv, établit un parallèle avec "Alexa" d'Amazon, en soulignant que des humains ont été employés pour vérifier les réponses attendues dans les conversations. Cela illustre la nécessité d'être vigilant pour s'assurer que les systèmes d'IA traitent les données de manière appropriée. Avast, dans un article, souligne en outre qu'une fois qu'un modèle apprend à partir des données de l'utilisateur, la suppression de ces informations devient extrêmement difficile, voire impossible à l'heure actuelle. Ces avertissements soulignent l'importance des mesures de protection de la vie privée et des pratiques de traitement des données robustes dans les technologies d'IA.
🤥 La génération de fausses informations et la question des hallucinations : Il s'agit de préoccupations importantes associées à ChatGPT. Beaucoup d'entre nous ont rencontré des cas sur les médias sociaux où ChatGPT a fourni des réponses contenant de fausses informations ou un contenu absurde. Il est essentiel de se rappeler que de telles réponses ne doivent jamais être considérées comme factuelles ou fiables. "En gros, le taux d'hallucination de ChatGPT est de 15 à 20 %", déclare Peter Relan, cofondateur et président de Got It AI.
🔎 Absence de citations, plagiat et propriété intellectuelle : Un modèle d'IA peut parfois fournir des informations inexactes, manquer de citations appropriées et ne pas fournir les informations les plus récentes. En outre, la question de la propriété du contenu généré par les grands modèles de language (LLM) comme ChatGPT reste un sujet qui nécessite une exploration et une clarification plus approfondies.
ChatGPT est déjà utilisé dans les entreprises
Fishbowl, une application de réseautage professionnel, a récemment mené une enquête qui a révélé des informations intéressantes sur l'adoption d'outils d'IA tels que ChatGPT d'OpenAI sur le lieu de travail. L'enquête, à laquelle ont répondue plus de 11 700 employés d'entreprises renommées tell es qu'Amazon, Google, IBM, JPMorgan, Meta et Twitter, met en lumière la prévalence des outils d'IA sur le marché du travail.Elle met en lumière la prévalence de l'utilisation des outils d'IA dans les tâches liées au travail.
Selon les résultats de l'enquête, un nombre important d'employés (43 %) ont admis avoir incorporé des outils d'IA tels que ChatGPT dans leur flux de travail. Notamment, parmi ce groupe d'utilisateurs de l'IA, une proportion étonnante de 68 % ont révélé qu'ils n'avaient pas encore divulgué leur utilisation de ChatGPT à leurs supérieurs.
En tant que cadre supérieur, il est essentiel de reconnaître que la mise en œuvre de ChatGPT sans réflexion approfondie peut mettre en péril votre entreprise. L'enquête, menée sur l'application Fishbowl du 26 au 30 janvier, met en évidence la dépendance croissante à l'égard des outils d'IA, les employés cherchant des moyens novateurs de rationaliser leurs processus de travail.
ChatGPT offre sans aucun doute de nombreux avantages aux employés, en les aidant dans diverses tâches quotidiennes telles que la rédaction de courriels, la rédaction de posts LinkedIn et le traitement efficace de grandes quantités d'informations pour faciliter la prise de décisions éclairées. Cependant, il est crucial de reconnaître que dans certains cas, les employés peuvent partager par inadvertance des informations sensibles qui devraient rester confidentielles et ne pas être accessibles au modèle d'IA.
Étant donné que ChatGPT n'est pas encore prêt pour l'entreprise, il devient crucial de répondre aux préoccupations en matière de protection de la vie privée et de sécurité, car les employés utilisent ces outils même après les restrictions. La question se pose : Comment pouvons-nous exploiter les capacités d'amélioration de la productivité d'outils tels que ChatGPT dans nos entreprises sans les exposer à des risques importants ? Quels sont les choix qui s'offrent à nous ?
En bref : L'enquête Fishbowl a révélé que 43 % des employés admettaient utiliser des outils tels que ChatGPT, 68 % d'entre eux révélant qu'ils le cachaient à leurs supérieurs. Ces résultats indiquent que l'interdiction pure et simple de ces outils n'est peut-être pas une solution efficace, tout comme le fait de priver les employés d'un lieu de travail productif ! Quels sont donc nos choix ?
Un autre modèle pour préparer l'IA générative à l'entreprise
En mettant l'accent sur la protection de la vie privée et la sécurité, Konverso prend le meilleur de l'IA générative, le combine à nos solutions et son interface avec vos données, vos connaissances et vos applications.
Accédez à des modèles d'IA générative sécurisés et conformes au GDPR
En tant qu'entreprise, vous êtes très attentif au GDPR, à la sécurité et à l'éthique. Konverso s'appuie sur les meilleurs modèles d'IA générative conçus dans le respect de la conformité, de la confidentialité et de la sécurité. Par exemple :
- Données d'entraînement dédiées : Nous utilisons exclusivement les données d'entraînement fournies par le client pour affiner son modèle, en veillant à ce qu'elles ne contribuent pas à l'entraînement ou à l'amélioration d'autres modèles génératifs.
- Filtrage rigoureux du contenu : Toutes les données soumises à notre service font l'objet d'un filtrage et d'un traitement rigoureux du contenu. Nous ne stockons pas les prompts ou les réponses dans le modèle et nous ne les utilisons pas pour entraîner, réentraîner ou améliorer nos modèles.
- Suppression des données contrôlée par l'utilisateur : Les modèles affinés peuvent être supprimés par les utilisateurs à tout moment et sont stockés en toute sécurité dans la même région que la ressource. Les données relatives aux prompts et aux complétions peuvent être stockées temporairement dans la même région que la ressource pour une durée maximale de 30 jours. Ces données cryptées ne sont accessibles qu'aux employés autorisés à des fins de débogage ou pour enquêter sur des motifs d'abus et de mauvaise utilisation.
- Confidentialité sans compromis des données des clients : Nous n'utilisons pas les données des clients pour entraîner, réentraîner ou améliorer les modèles.
- Prévention proactive des abus : Notre filtrage synchrone du contenu et la conservation des prompts et des réponses pendant 30 jours nous permettent de surveiller tout contenu ou comportement qui suggère une violation des conditions de notre produit. Cette vigilance garantit que notre service est utilisé de manière responsable et éthique.
Notre mission est de fournir des solutions qui orchestrent l'IA générative avec les données, les connaissances et les applications de l'entreprise afin de créer une valeur inégalée pour nos clients.
Nos solutions comprennent des chatbots, des assistants virtuels et des capacités d'assistance aux agents qui permettent aux agents des centres de contact de fournir un support client de qualité supérieure. Nous étendons également notre soutien à divers autres personas au sein de l'entreprise, en intégrant de manière transparente l'IA dans leur travail quotidien. En donnant la priorité à la sécurité et en proposant des applications pratiques, nous nous efforçons de faire de l'IA une partie intégrante et bénéfique des flux de travail et des processus de l'entreprise, tels que l'expérience des employés (EX) et l'expérience des clients (CX).
Konverso apporte de la valeur en aidant les entreprises à exploiter les grands modèles de langage (LLM) tout en minimisant les risques associés. Konverso reconnaît l'importance de la confidentialité et de la sécurité dans les environnements d'entreprise et travaille activement à combler le fossé entre les LLM et la préparation des entreprises.. En mettant en œuvre de solides mesures de protection de la vie privée et de sécurité, Konverso vise à garantir que les entreprises puissent bénéficier de la technologie LLM sans compromettre leurs données sensibles ou s'exposer à des risques excessifs.
Pour en savoir plus, réservez une démonstration dès maintenant !
SOURCES:https://www.bbc.com/news/technology-65139406 https://www.digitaltrends.com/computing/chatgpt-banned-in-italy-faces-ftc-complaint/ https://m.economictimes.com/tech/technology/samsung-bans-use-of-chatgpt-for-mobile-appliances-staff/amp_articleshow/99931628.cms https://medium.com/@samyme/why-are-companies-and-other-organizations-banning-chatgpt-and-bard-next-7770ab8c171b https://www.datanami.com/2023/01/17/hallucinations-plagiarism-and-chatgpt/ https://www.hr-brew.com/stories/2023/05/11/these-companies-have-banned-chatgpt-in-the-office https://www.bbc.com/news/technology-65139406 https://www.demandsage.com/chatgpt-statistics/ https://www.reuters.com/business/chatgpt-owner-openai-projects-1-billion-revenue-by-2024-sources-2022-12-15/ https://cobusgreyling.medium.com/what-is-needed-for-chatgpt-to-be-enterprise-ready-de388213e6ed