El 2023 quedará marcado por la adopción masiva de la #AI. La gran mayoría de las empresas del mundo piensan en utilizar Inteligencia Artificial en sus procesos, pero aún mas allá, las personas adoptaron en su dia a dia herramientas de AI generativa como Bing, ChatGPT, Bard u otras.
Hasta hace pocos meses, el machine learning o la inteligencia artificial se basada en científicos de datos y perfiles por el estilo. En la actualidad, estos temas ya involucran a todas las áreas de una empresa, incluso a usuarios no-técnicos. Pero que riesgos trae esto? Sin adentrarnos en temas de ética o legislación, vamos a analizar sobre #BYOAI y #ShadowAI.
Definiciones de ambos conceptos
Bring Your Own AI (BYOAI): BYOAI potencia la creatividad de los colaboradores al permitirles traer sus propias herramientas de inteligencia artificial. Desde el punto de vista de productividad es genial, cada empleado contribuye con soluciones innovadoras. Sin embargo, para maximizar los beneficios, es crucial establecer políticas claras y ofrecer capacitación para un uso responsable.
Shadow AI: Derivado del ya conocido Shadow IT, la sombra de la innovación individual puede convertirse en riesgo si no se maneja adecuadamente. Shadow IT se refiere al uso no autorizado de tecnologías, aplicaciones o servicios informáticos por parte de los empleados, fuera del conocimiento y control del departamento de tecnología de la información (IT) de una organización. De la misma manera que su predecesor, Shadow AI se refiere al uso no autorizado de herramientas de inteligencia artificial, lo que puede resultar en violaciones de seguridad y problemas de cumplimiento.
Medidas de Control
Las direcciones de tecnología, gerencia de TI, Seguridad Informática, Auditoría, deben adelantarse y comenzar a implementar medidas de control. La AI avanza mucho más rápido que cualquier otra tendencia que hayamos conocido, y proteger el entorno laboral, la privacidad de la información y la seguridad corporativa son un reto muy grande. La brecha que puede generar un empleado es muy grande y lo último que queremos es que la AI se convierta en una amenaza. Por tal motivo, desde 54cuatro sugerimos comenzar a tomar medidas, como estas:
- Políticas Claras: Establecer normas claras para el uso de BYOAI, definiendo qué herramientas son aceptables y proporcionando guías sobre seguridad y privacidad.
- Homologar herramientas autorizadas: Establecer un “toolkit” homologado de herramientas de AI puede permitir mantener un entorno confiable.
- Monitoreo Continuo: Implementa sistemas de monitoreo para identificar actividades de Shadow AI. La detección temprana es clave para prevenir riesgos.
- Capacitación: Educa a los empleados sobre los riesgos asociados con el uso no supervisado de herramientas de IA y promueve un uso responsable.
- Colaboración con IT: Fomenta la colaboración entre los colaboradores y el departamento de IT para garantizar la seguridad y la conformidad.
Como evitar que BYOAI se Convierta en Shadow AI:
- Comunicación Abierta: Fomentar un diálogo abierto entre los empleados y el departamento de IT. La transparencia evita sorpresas y promueve la colaboración.
- Formación Continua: Proporcionar capacitación regular sobre las políticas de BYOAI y los riesgos potenciales. La conciencia es clave para un uso responsable.
- Soporte IT: Ofrecer alternativas seguras y el respaldo del departamento de IT para proyectos de inteligencia artificial. La colaboración asegura la conformidad y la seguridad.
¡En 54cuatro, estamos comprometidos con un futuro laboral innovador y seguro!