Orientación de los padres: 'inteligencia artificial' utilizada para calificar a las niñeras según su historial de redes sociales

Contenido:

{title}

Cuando Jessie Battaglia comenzó a buscar una nueva niñera para su hijo de un año, quería más información de la que podía obtener de una verificación de antecedentes penales, comentarios de los padres y una entrevista cara a cara.

Así que recurrió a Predictim, un servicio en línea que utiliza "inteligencia artificial avanzada" para evaluar la personalidad de una niñera, y dirigió sus escáneres a las miles de publicaciones de Facebook, Twitter e Instagram de un candidato.

  • ¿Se pregunta por qué la falta de sueño se siente como una tortura? Eso es porque es
  • La realidad de la 'noche de cita': cómo hacer que suceda realmente.
  • El sistema ofreció una "calificación de riesgo" automatizada de una candidata de 24 años, y dijo que estaba en un "riesgo muy bajo" de ser un drogadicto. Pero dio una evaluación de riesgo ligeramente más alta, dos de cada cinco, por acoso, hostigamiento, falta de respeto y actitud negativa.

    El sistema no explicó por qué había tomado esa decisión. Pero Battaglia, que había creído que la niñera era digna de confianza, sintió repentinamente una punzada de duda.

    "Los medios sociales muestran el carácter de una persona", dijo Battaglia, de 29 años, quien vive cerca de Los Ángeles. "Entonces, ¿por qué entró ella a la dos y no a la una?"

    Predictim está ofreciendo a los padres el mismo libro de jugadas que docenas de otras empresas de tecnología están vendiendo a empleadores de todo el mundo: sistemas de inteligencia artificial que analizan el habla de una persona, las expresiones faciales y la historia en línea con la promesa de revelar los aspectos ocultos de sus vidas privadas.

    La tecnología está cambiando la forma en que algunas compañías abordan el reclutamiento, la contratación y la revisión de trabajadores, ofreciendo a los empleadores una visión incomparable de los candidatos a través de una nueva ola de evaluación y vigilancia psicológica invasiva.

    La empresa de tecnología Fama dice que utiliza la inteligencia artificial para vigilar las redes sociales de los trabajadores en busca de "comportamientos tóxicos" y alertar a sus jefes. Y la firma de tecnología de contratación HireVue, que trabaja con compañías como Geico, Hilton y Unilever, ofrece un sistema que analiza automáticamente el tono, la selección de palabras y los movimientos faciales de los solicitantes durante las entrevistas de video para predecir su habilidad y comportamiento en el trabajo. (Se alienta a los candidatos a sonreír para obtener mejores resultados.)

    Pero los críticos dicen que Predictim y los sistemas similares presentan sus propios peligros al tomar decisiones automatizadas y, posiblemente, que alteran la vida prácticamente sin control.

    Los sistemas dependen de algoritmos de caja negra que brindan pocos detalles acerca de cómo redujeron las complejidades de la vida interior de una persona al cálculo de la virtud o el daño. Y aun cuando la tecnología de Predictim influye en el pensamiento de los padres, sigue sin estar completamente comprobado, en gran parte sin explicación y vulnerable a sesgos tranquilos sobre cómo una niñera adecuada debería compartir, mirar y hablar.

    Existe esta "loca carrera por aprovechar el poder de la IA para tomar todo tipo de decisiones sin asegurarnos de que sea responsable ante los seres humanos", dijo Jeff Chester, director ejecutivo del Centro para la Democracia Digital, un grupo de defensa de la tecnología. "Es como si la gente hubiera bebido el Kool-Aid digital y piense que esta es una forma adecuada de gobernar nuestras vidas".

    Las exploraciones de Predictim analizan la historia completa de las redes sociales de una niñera que, para muchos de los más pequeños, pueden cubrir la mayor parte de sus vidas. Y a los asistentes se les dice que estarán en una gran desventaja para los trabajos competitivos si se niegan.

    El jefe y cofundador de Predictim, Sal Parsa, dijo que la compañía, lanzada el mes pasado como parte de la incubadora de tecnología SkyDeck de la Universidad de California en Berkeley, toma en serio las cuestiones éticas sobre el uso de la tecnología. Los padres, dijo, deben ver las calificaciones como un compañero que "puede o no reflejar los atributos reales de la persona".

    Pero el peligro de contratar a una niñera problemática o violenta, agregó, hace de la IA una herramienta necesaria para cualquier padre que desee mantener a su hijo a salvo.

    "Si buscas niñeras abusivas en Google, verás cientos de resultados en este momento", dijo. "Hay personas por ahí que tienen una enfermedad mental o simplemente nacen malvadas. Nuestro objetivo es hacer todo lo posible para detenerlas".

    Un análisis de Predictim comienza en $ 24.99 y requiere el nombre y la dirección de correo electrónico de una niñera y su consentimiento para compartir un amplio acceso a sus cuentas de redes sociales. La niñera puede rechazar, pero a un padre se le notifica su negativa, y en un correo electrónico se le dice a la niñera que "el padre interesado no podrá contratarlo hasta que complete esta solicitud".

    Los ejecutivos de Predictim dicen que usan algoritmos de procesamiento de lenguaje y un software de reconocimiento de imagen conocido como "visión computarizada" para evaluar las publicaciones de Facebook, Twitter e Instagram de las niñeras en busca de pistas sobre su vida fuera de línea. El padre recibe el informe exclusivamente y no tiene que informarle a la niñera los resultados.

    Los padres podrían, presumiblemente, mirar las cuentas de las redes sociales públicas de sus asistentes. Pero los informes generados por computadora prometen una inspección profunda de los años de actividad en línea, reducidos a un solo dígito: una solución embriagadamente simple para una tarea impráctica.

    Las clasificaciones de riesgo se dividen en varias categorías, que incluyen contenido explícito y abuso de drogas. La empresa nueva también ha anunciado que su sistema puede evaluar a las niñeras en otros rasgos de personalidad, como la cortesía, la capacidad de trabajar con otros y la "positividad".

    La compañía espera mejorar la industria de "subcontratación parental" multimillonaria y ha comenzado a publicitar a través de patrocinios pagados de los padres y los blogs de "momias". El marketing de la compañía se centra en gran medida en su capacidad para exponer secretos ocultos y evitar "la pesadilla de todos los padres", citando casos criminales, incluido el de una niñera de Kentucky acusada a principios de este año de lesionar gravemente a una niña de ocho meses.

    "Si los padres de la niña lesionada por esta niñera hubieran podido usar Predictim como parte de su proceso de investigación", dice un documento de marketing de la compañía, "nunca la hubieran dejado sola con su preciosa hija".

    Pero los expertos en tecnología dicen que el sistema levanta señales de alerta por sí mismo, incluidas las preocupaciones de que se está aprovechando de los temores de los padres de vender escaneos de personalidad de precisión no probada.

    También cuestionan cómo se entrena a los sistemas y qué tan vulnerables podrían ser para malinterpretar los significados borrosos del uso de las redes sociales por parte de los usuarios. Para todos, excepto para las exploraciones de mayor riesgo, a los padres solo se les da una sugerencia de comportamiento cuestionable y no hay frases, enlaces o detalles específicos para evaluar por sí mismos.

    Cuando se marcó el escaneo de una niñera en busca de un posible comportamiento de acoso, la madre enervada que lo solicitó dijo que no podía saber si el software había detectado una cita de una película antigua, una letra de la canción u otra frase en lugar del lenguaje de acoso.

    Pero Predictim, sin embargo, dice que se está preparando para una expansión a nivel nacional. Los ejecutivos de Sittercity, un mercado de niñeras en línea visitado por millones de padres, dijeron que lanzarán un programa piloto a principios del próximo año que incluirá las calificaciones automáticas de Predictim en la actual selección de pruebas de niñeras y verificación de antecedentes del sitio.

    "Encontrar a una niñera puede venir con mucha incertidumbre", dijo Sandra Dainora, jefa de producto de Sittercity, quien cree que herramientas como estas pronto podrían convertirse en "moneda estándar" para encontrar cuidadores en línea. "Los padres siempre están buscando la mejor solución, la mayor investigación, los mejores datos".

    El Washington Post

    Artículo Anterior Artículo Siguiente

    Recomendaciones Para Mamás‼