Nuevo algoritmo de aprendizaje automático detecta y detiene la comunicación tóxica en el trabajo

Los gerentes de personal y líderes de recursos humanos tienen una nueva herramienta para detectar y detener el acoso en el trabajo: un algoritmo de aprendizaje automático que identifica la comunicación tóxica. CommSafe AI puede documentar incidentes de racismo y sexismo, y rastrear patrones de comportamiento a lo largo del tiempo. Esto facilita la identificación de actores problemáticos y la intervención cuando se presenta un problema, en lugar de esperar hasta que se presente una demanda.

El algoritmo de CommSafe monitorea servicios de correo electrónico y chat, incluyendo plataformas como Microsoft Teams, y utiliza el aprendizaje automático para medir el sentimiento y tono de la comunicación escrita en tiempo real. Según Ty Smith, fundador y CEO de CommSafe AI, el algoritmo comprende el matiz y contexto, como cuando "pecho" se refiere a un pedido de almuerzo en un lugar de pollo y cuando se refiere a la anatomía humana. Smith mencionó que el algoritmo evita los falsos positivos generados por soluciones de monitoreo que utilizan reglas o búsquedas de palabras clave para detectar comentarios problemáticos.

Smith dijo que el objetivo es cambiar el comportamiento cuando el problema aparece por primera vez. También recomienda que los empleadores siempre informen a los empleados de que se está utilizando el servicio de monitoreo.

"En lugar de enviar estos mensajes por Slack, se los guardarán para sí mismos o solo se expresarán de esta manera cuando vean a la persona en persona", dijo. "De cualquier manera, esto causa un cambio en el comportamiento del individuo y reduce el riesgo para la empresa".

Índice de Contenido
  1. Medición de la confianza y la seguridad
  2. Creación de un modelo para identificar el discurso de odio

Medición de la confianza y la seguridad

El desafío radica en escalar esta retroalimentación correctiva a empresas con 10,000 empleados o juegos en línea con 100,000 usuarios, y monitorear múltiples canales en busca de numerosos problemas, como la infracción de propiedad intelectual, el spam, el fraude, el phishing, la desinformación y el contenido ilegal, como imágenes explícitas de carácter sexual no consensuadas.

La revolución de la inteligencia artificial en la experiencia laboral

"Aún no hemos encontrado las herramientas adecuadas para gestionar esto", dijo Elliot. "Las empresas realmente grandes tienen grandes equipos de personas trabajando en esto y aún tienen un camino por recorrer".

Elliot sugirió que las empresas utilicen este software de monitoreo para medir la seguridad social en grupos también.

"Un patrón de comportamiento puede ser dentro de un grupo o con un individuo, y se puede correlacionar con otras cosas", dijo. "Las personas no rompen esas reglas todo el tiempo; hay ciertos desencadenantes que hacen que sea aceptable".

Creación de un modelo para identificar el discurso de odio

Smith fundó una empresa de evaluación de riesgos con tecnología en 2015 con un enfoque inicial en la violencia en el lugar de trabajo.

"Una vez que inicié la empresa y comencé a trabajar con grandes clientes, me di cuenta de que las situaciones de tiradores activos eran una parte muy pequeña de ese problema", dijo.

A principios de 2020, cambió el enfoque de la empresa a la comunicación tóxica, con la idea de adelantarse al problema en lugar de responder a cosas negativas que ya han sucedido.

Es hora de probar la inteligencia artificial

Realizó una sesión de lluvia de ideas con oficiales militares y de aplicación de la ley que tenían experiencia en tratar con individuos violentos. El grupo se decidió por la comunicación tóxica como precursor del acoso laboral, discriminación racial y otros comportamientos violentos.

Smith mencionó que el equipo de CommSafe utilizó conjuntos de datos disponibles públicamente para construir el algoritmo, incluyendo texto extraído de Stormfront, un foro supremacista blanco, y el conjunto de datos de correos electrónicos de Enron que incluye mensajes de correo electrónico de 150 altos ejecutivos de la empresa fallida.

Después de vender una versión beta del software, los ingenieros de CommSafe incorporaron datos de clientes para entrenar al algoritmo en lenguaje más específico de la industria.

"Normalmente toma entre tres y ocho semanas para que el AI aprenda sobre una organización en particular y establezca una línea base de cómo es la cultura", dijo.

La empresa planea lanzar una nueva versión del software a finales de mayo. En febrero, recibió una certificación de ServiceNow, lo que significa que el software de CommSafe ahora está disponible en la tienda de ServiceNow.

El algoritmo no recomienda un curso de acción particular en respuesta a un correo electrónico o mensaje de Slack en particular. Smith mencionó que los clientes de recursos humanos identificaron el monitoreo en tiempo real como la característica más importante. Las empresas también pueden implementar el software de monitoreo como parte de una integración con ServiceNow.

El asistente de currículum Resoume: crea un currículum atractivo y listo para ATS

"Los clientes de CommSafe AI pueden crear flujos de trabajo en el lado de ServiceNow que les permitan resolver el problema en tiempo real", dijo.

CommSafe también está trabajando en un contrato de fase uno con el Departamento de Defensa para probar la capacidad del algoritmo de detectar señales de advertencia de suicidio y autolesiones.

"Actualmente estamos trabajando con el DOD para ver si podemos explorar este caso de uso en un público más amplio", dijo.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Inteligencia artificial, allí encontraras muchos artículos similares a Nuevo algoritmo de aprendizaje automático detecta y detiene la comunicación tóxica en el trabajo , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.