WonkaChat est sécurisé par conception : vos données sont chiffrées, isolées entre organisations et jamais utilisées pour l’entraînement IA. Ces directives vous aident à travailler efficacement et professionnellement.
Utiliser l’IA efficacement au travail
Obtenez le maximum de valeur de l’IA tout en maintenant la qualité et le contrôle.Délimiter vos demandes
- Bonnes tâches pour l'IA
- Tâches nécessitant de la prudence
Objectifs clairs et spécifiques :
- Analyser cet ensemble de données et identifier les tendances
- Rédiger une réponse à cette demande client
- Examiner ce document pour la clarté et les erreurs
- Générer des cas de test pour cette fonctionnalité
- Résumer les points clés de cette réunion
Ces demandes ciblées aident l’IA à comprendre exactement ce dont vous avez besoin et rendent les sorties plus faciles à vérifier.
Réfléchir avant d’exécuter
Le principal risque avec l’IA n’est pas la sécurité, c’est de faire accidentellement quelque chose que vous ne pouvez pas défaire.Comprendre les actions irréversibles
Ce qui ne peut pas être annulé
Ce qui ne peut pas être annulé
Actions qui changent ou suppriment définitivement les données :
- Supprimer des bases de données, fichiers de production ou données utilisateur
- Déployer du code vers les systèmes de production
- Envoyer des e-mails ou messages aux clients
- Modifier des configurations en direct
- Supprimer des comptes utilisateur ou autorisations
Activités sûres
Activités sûres
Actions qui peuvent être examinées ou inversées :
- Rédiger du contenu (e-mails, documents, code)
- Analyser des données et générer des insights
- Rechercher et récupérer des informations
- Créer des données de test ou des exemples
- Générer de la documentation
Ces activités vous donnent le temps d’examiner et d’affiner avant que quoi que ce soit ne soit en direct ou n’impacte les autres.
Stratégies pour les opérations critiques
Lorsque les agents IA travaillent avec des systèmes à fort impact, implémentez des protections pour maintenir le contrôle :Activer le Mode sécurisé
Activer le Mode sécurisé
Exigez une approbation avant que les actions ne s’exécutent. Le Mode sécurisé met l’agent en pause et vous montre exactement ce qu’il veut faire avant de procéder.Meilleur pour : Systèmes de production, communications clients, opérations financières, changements de déploiement.
Tester en staging d'abord
Tester en staging d'abord
Exécutez les agents dans des environnements hors production avant de déployer vers les systèmes en direct. Vérifiez le comportement avec des données de test avant de travailler avec des informations réelles. Utilisez des données de test synthétiques ou anonymisées si possible.Meilleur pour : Nouveaux agents, flux de travail complexes ou opérations affectant plusieurs systèmes.
Décomposer en étapes
Décomposer en étapes
Divisez les grandes opérations en morceaux plus petits et examinables. Exécutez une étape, vérifiez le résultat, puis passez à la suivante.Meilleur pour : Processus multi-étapes, migrations de données ou opérations s’étendant sur plusieurs systèmes.
Restreindre l'accès aux outils
Restreindre l'accès aux outils
Supprimez les outils qui effectuent des actions finales (envoyer, supprimer, déployer) et ne gardez que les outils de préparation (brouillon, analyser, lire). Cela réduit les chances d’actions involontaires et garde les agents concentrés sur leur objectif. En savoir plus sur la restriction d’outils.Meilleur pour : Agents qui aident avec les décisions mais ne devraient pas les exécuter de manière autonome.
Examiner l'accès des agents
Examiner l'accès des agents
Avant de connecter des agents à vos outils, examinez quelles données ils peuvent accéder via les connexions MCP.Meilleur pour : Assurer l’accès au moindre privilège et les audits d’accès périodiques.
Variables d'environnement pour les clés
Variables d'environnement pour les clés
Lors du partage de code avec l’IA ou de la validation d’exemples, utilisez des variables d’environnement au lieu de clés API codées en dur ou d’identifiants.Meilleur pour : Code partagé dans les conversations, échantillons et dépôts collaboratifs.
Directives de bon sens
Principes de base pour une utilisation professionnelle de l’IA :Examiner avant l'impact
Examiner avant l'impact
Examinez toujours les sorties IA avant qu’elles n’affectent les autres ou les systèmes de production. Traitez le contenu généré par l’IA comme le travail d’un collègue, vous devez le vérifier avant qu’il ne sorte.
Utiliser le contrôle de version
Utiliser le contrôle de version
Pour les changements de code, utilisez Git ou votre système de contrôle de version. Validez les changements IA séparément pour que vous puissiez suivre et revenir en arrière si nécessaire. C’est une bonne pratique pour tous les changements de code, pas seulement ceux générés par l’IA.
Ne pas demander des actions illégales ou nuisibles
Ne pas demander des actions illégales ou nuisibles
Ne demandez pas à l’IA d’aider avec des activités illégales, de créer du contenu nuisible ou de générer de la désinformation. Cela concerne l’éthique professionnelle et la réputation de votre organisation, pas la sécurité de la plateforme.
Vérifier les informations importantes
Vérifier les informations importantes
Pour les décisions critiques, vérifiez les informations générées par l’IA auprès de sources faisant autorité. L’IA est excellente pour la recherche et la rédaction mais devrait augmenter votre expertise, pas la remplacer.
Ces directives ne sont pas uniques à l’IA, ce sont des normes professionnelles pour tout outil de travail. Utilisez un bon jugement et examinez les sorties importantes.
Référence rapide : Évaluation des risques
Lors de la planification d’utilisation de l’IA pour une tâche, considérez ces facteurs :| Facteur | Risque plus faible ✅ | Risque plus élevé ⚠️ |
|---|---|---|
| Réversibilité | Brouillons, analyse, suggestions | Changements de production, suppressions, envoi de communications |
| Portée de l’impact | Travail personnel, environnements de test | Systèmes de production, face client, à l’échelle de l’organisation |
| Opportunité d’examen | Résultats examinés avant utilisation | Exécution directe sans examen humain |
| Permanence des données | Données temporaires, faciles à recréer | Données critiques, difficiles à récupérer |
Pour les tâches à risque plus élevé, utilisez le Mode sécurisé, restreignez les outils de l’agent ou décomposez le travail en étapes examinables.
Configuration intelligente d’agent
Configurez les agents de manière appropriée pour leur objectif prévu.Agents conçus pour un objectif
Créez des agents optimisés pour des tâches spécifiques :
- Agents de recherche : Lire et analyser uniquement
- Agents de brouillon : Créer du contenu sans envoyer
- Agents d’examen : Fournir des commentaires sans faire de changements
Tester avant de faire confiance
Avant de donner de l’autonomie à un agent :
- Testez avec le Mode sécurisé activé
- Examinez à quels outils il a accès
- Vérifiez qu’il se comporte comme prévu
- Commencez avec une portée limitée, développez si nécessaire
L’essentiel
WonkaChat fournit une sécurité d’entreprise : chiffrement, isolation et authentification sécurisée protègent vos données, mais vous devez toujours vous concentrer sur quelques pratiques clés :- Réfléchir avant d’exécuter - Examiner avant de supprimer, déployer ou envoyer
- Délimiter de manière appropriée - Donner aux agents IA des tâches spécifiques avec des limites claires
- Utiliser un bon jugement - Vérifier les informations importantes et maintenir la qualité
