Maneras de resolver problemas a los clientes

Escrito por: Karen Hao, MIT Technology Review

1. ¿Cuál es el problema que está tratando de resolver?

Siempre empiezo con la declaración del problema. ¿Qué dice la compañía que está tratando de hacer, y es digno de aprendizaje automático? Tal vez estamos hablando con Affectiva, una empresa que está desarrollando una tecnología de reconocimiento de emociones para rastrear y analizar con precisión los estados de ánimo de las personas. Conceptualmente, este es un problema de reconocimiento de patrones y, por lo tanto, sería uno que el aprendizaje automático podría abordar. También sería muy difícil acercarse por otros medios, ya que es demasiado complejo programar en un conjunto de reglas.

2. ¿Cómo enfoca la compañía ese problema con el aprendizaje automático?

Ahora que tenemos una comprensión conceptual del problema, queremos saber cómo la compañía lo va a abordar. Una empresa de reconocimiento de emociones podría adoptar muchos enfoques para construir su producto. Podría entrenar un sistema de visión por ordenador para hacer coincidir los patrones en las expresiones faciales de las personas o entrenar a un sistema de audio para ajustar los patrones en el tono de voz de las personas. Aquí, queremos descubrir cómo la compañía ha reformulado su problema hacia un enfoque de aprendizaje automático y determinar qué datos necesitaría ingresar en sus algoritmos.

3. ¿Cómo obtiene la compañía sus datos de capacitación?

Una vez que sepamos el tipo de datos que necesita la compañía, queremos saber cómo la compañía va a adquirirlos. La mayoría de las aplicaciones de inteligencia artificial utilizan aprendizaje automático supervisado, que requiere datos etiquetados adecuadamente y de alta calidad. ¿Quién está etiquetando los datos? Y si las etiquetas son subjetivas como las emociones, ¿siguen una norma científica? En el caso de Affectiva, usted aprenderá que la compañía recopila datos de audio y video de los usuarios de manera voluntaria, luego emplea especialistas capacitados para etiquetar los datos de una manera rigurosamente consistente. Conocer los detalles de esta parte de la tubería también lo ayuda a identificar cualquier fuente potencial de recopilación de datos o sesgo de etiquetado.

4. ¿Tiene la empresa procesos para auditar sus productos?

Ahora deberíamos examinar si la empresa prueba sus productos. ¿Qué tan exactos son sus algoritmos? ¿Con qué frecuencia vuelve a evaluar sus algoritmos para asegurarse de que todavía se están desempeñando a la par? Si la empresa aún no tiene algoritmos que alcancen la precisión o la imparcialidad deseadas, ¿qué planes tiene para asegurarse de que lo harán antes de la implementación?

5. ¿Debería la empresa utilizar el aprendizaje automático para resolver este problema?

Esto es más como una llamada de juicio. Incluso si un problema puede resolverse con el aprendizaje automático, es importante preguntarse si debería. El hecho de que pueda crear una plataforma de reconocimiento de emociones que alcance al menos el 80% de precisión en diferentes razas y géneros no significa que no se pueda abusar. ¿Los beneficios de tener esta tecnología disponible superan las posibles violaciones de los derechos humanos de la vigilancia emocional? ¿Y tiene la empresa mecanismos para mitigar cualquier posible impacto negativo?

Una empresa con un producto de aprendizaje automático de calidad debe marcar todas las casillas: debe abordar un problema de aprendizaje automático, contar con procesos sólidos de adquisición de datos y auditoría, contar con algoritmos de alta precisión o un plan para mejorarlos luchar de frente con cuestiones éticas. Una empresa con un producto de aprendizaje automático de calidad debe marcar todas las casillas: debe abordar un problema de aprendizaje automático, contar con procesos sólidos de adquisición de datos y auditoría, contar con algoritmos de alta precisión o un plan para mejorarlos, y Luchando de frente con cuestiones éticas. A menudo, la mayoría de las empresas pasan las primeras cuatro pruebas, pero no la última, esa es una gran bandera roja. Demuestra que la compañía no está pensando de manera holística sobre cómo su tecnología puede impactar las vidas de las personas y tiene una alta probabilidad de convertirse en un caso como Facebook más adelante. Si usted es un ejecutivo que busca soluciones de aprendizaje automático para su empresa, esto debería advertirle de no asociarse con un proveedor en particular.

Lee el artículo original aqui.