9 preguntas clave para auditar la seguridad de tus datos en IA y big data

¿Cómo auditar y asegurar la inteligencia artificial y los datos grandes?

Las auditorías de TI para sistemas de datos de registro son un evento anual en la mayoría de las empresas. Pero auditar la inteligencia artificial y los datos grandes, asegurándose de que estén bajo suficiente seguridad y gobernanza, aún es un trabajo en progreso.

La buena noticia es que las empresas ya tienen una serie de prácticas que pueden aplicar a la inteligencia artificial y los datos grandes. Estas prácticas están incorporadas en las políticas y procedimientos de TI que pueden ser adaptados tanto para la IA como para los datos grandes. Todas son extremadamente útiles en un momento en que las firmas profesionales de auditoría ofrecen servicios limitados de IA y datos grandes.

Aquí hay nueve preguntas y formas en las que las empresas pueden autodiagnosticar su IA y datos grandes:

Índice de Contenido
  1. 1. ¿Sabes de dónde provienen tus datos?
  2. 2. ¿Has abordado la privacidad de los datos?
  3. 3. ¿Tienes procedimientos de bloqueo?
  4. 4. ¿Está toda la TI alineada con tu configuración de seguridad?
  5. 5. ¿Qué tan limpios son tus datos?
  6. 6. ¿Qué tan precisa es tu IA?
  7. 7. ¿Quién está autorizado para acceder a tus datos grandes y tu IA?
  8. 8. ¿Tu IA cumple con su misión?
  9. 9. ¿Puedes respaldarte si la IA falla?

1. ¿Sabes de dónde provienen tus datos?

Las empresas adquieren sus propios datos de las operaciones comerciales, pero también compran y utilizan datos de proveedores externos para la IA y el análisis. Todos los datos externos deben evaluarse en cuanto a confiabilidad y calidad antes de utilizarlos en la IA y el análisis. La evaluación de los datos de terceros debe ser parte de cada solicitud de propuesta.

2. ¿Has abordado la privacidad de los datos?

Puedes tener tus propias reglas de privacidad de datos y acuerdos con clientes, pero estos derechos de privacidad de datos se ven ampliados cuando se extienden a socios comerciales externos que pueden no tener los mismos estándares de privacidad de datos. En estos casos, debería haber políticas y procedimientos para la privacidad de los datos no solo en TI, sino también en los departamentos legales y de cumplimiento corporativo para garantizar que los clientes cuyos datos podrían utilizarse, anonimizarse o compartirse estén conscientes de ese hecho.

Cómo superar los obstáculos en la implementación de proyectos de ciencia de datos

3. ¿Tienes procedimientos de bloqueo?

Internet de las cosas y la informática en el borde contribuirán cada vez más con datos grandes no estructurados a los sistemas. Debido a que estos dispositivos son móviles y distribuidos, pueden perderse, comprometerse o extraviarse fácilmente. Como mínimo, TI debería tener una forma de rastrear estos dispositivos y su uso, y bloquearlos cuando se informe que están perdidos o extraviados.

4. ¿Está toda la TI alineada con tu configuración de seguridad?

Muchos dispositivos de informática en el borde e IoT, así como routers y concentradores, llegan con configuraciones de seguridad predeterminadas de sus proveedores que no coinciden con los estándares de seguridad corporativos. Como parte de los procedimientos de instalación, TI debe incluir un paso en el que se verifiquen las configuraciones de seguridad predeterminadas y luego se establezcan en las configuraciones de seguridad empresarial antes de su implementación.

5. ¿Qué tan limpios son tus datos?

Debe haber un nivel adecuado de limpieza de datos, que podría implicar descartar datos, normalizar datos, utilizar herramientas ETL (extracción, transformación, carga), etc. Esto es para asegurarse de que los datos que ingresan a los sistemas de análisis y AI sean lo más "limpios" y precisos posible.

6. ¿Qué tan precisa es tu IA?

Los algoritmos y los datos que se utilizan en los sistemas de IA cambian continuamente, por lo que las suposiciones para la IA que son verdaderas hoy pueden no ser válidas mañana. La IA también puede incorporar sesgos que no se detectan de inmediato. Debido a esto, el proceso de monitoreo y revisión de los algoritmos, consultas y datos de IA debe ser continuo y constante. Debería haber un procedimiento de IA para ajustar regularmente los datos y las operaciones de IA.

7. ¿Quién está autorizado para acceder a tus datos grandes y tu IA?

Todos los repositorios de datos grandes y los sistemas de IA y análisis deben ser monitoreados las 24 horas del día, los 7 días de la semana para garantizar que solo los usuarios autorizados estén accediendo a ellos.

8. ¿Tu IA cumple con su misión?

Mínimamente, anualmente se debe evaluar los sistemas de IA para confirmar que están cumpliendo con las demandas y misiones del negocio. Si no lo hacen, se deben revisar o descartar.

La revolución tecnológica en el mercado inmobiliario frente al auge de la vivienda

9. ¿Puedes respaldarte si la IA falla?

Si incorporas operaciones de IA en los procesos comerciales, tu plan de recuperación ante desastres debe abordar un escenario en el que estos sistemas se vuelvan inoperables. Si un sistema experimenta tiempo de inactividad, ¿qué harás? ¿Habrá un sistema de respaldo que se active rápidamente? ¿O un conjunto de procedimientos manuales (y empleados que sepan cómo ejecutarlos) que puedan hacerse cargo hasta que el sistema de IA vuelva a funcionar? ¿Puede el negocio posponer decisiones que tome la IA hasta que los sistemas vuelvan a estar en funcionamiento? Los procedimientos para el tiempo de inactividad deben ser claramente enumerados tanto para TI como para el negocio final.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a 9 preguntas clave para auditar la seguridad de tus datos en IA y big data , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.