Sistemas Informáticos

Sistemas Informáticos

Facturación Electrónica
Recursos Humanos

Recursos Humanos

Capacitación
Sistemas Informáticos

Sistemas Informáticos

Diseño Gráfico
Recursos Humanos

Recursos Humanos

Búsqueda y Selección
Sistemas Informáticos

Sistemas Informáticos

Remito Electrónico

Por JOHN MARKOFF 

Desde hace mucho tiempo, Elon Musk, el director de Tesla, y otros ejecutivos del Silicon Valley han prometido un automóvil que pueda hacer toda la conducción sin ayuda humana.

Pero Ben Shneiderman, científico informático de la Universidad de Maryland, cree que los autos totalmente automatizados y la visión de la industria tecnológica para un futuro robótico es errada. Incluso peligrosa. Él cree que los robots deberían colaborar con los humanos, en lugar de reemplazarlos.

El año pasado, Shneiderman emprendió una cruzada para convencer al mundo de la inteligencia artificial de que se dirige en la dirección equivocada. En lugar de tratar de crear robots autónomos, dijo, los diseñadores deberían enfocarse en diseñar máquinas que sean “seguras y confiables”.

Shneiderman, de 72 años, comenzó a difundir su mensaje hace décadas. Pionero en el campo de la interacción humano-computadora, en 1982 cofundó lo que hoy es la Conferencia sobre Factores Humanos en Sistemas Computacionales y acuñó el término “manipulación directa” para describir la forma en que los objetos son movidos en una pantalla computacional con un mouse o, más recientemente, con un dedo.

En 1997, Shneiderman participó en un debate profético con Pattie Maes, una científica informática en el Laboratorio de Medios del Instituto Tecnológico de Massachusetts (MIT), sobre la idea de agentes de software inteligentes diseñados para realizar tareas autónomas para usuarios de computadoras, desde reordenar comestibles hasta hacer una reserva en un restaurante.

“Los diseñadores creen que están creando algo realista e inteligente; sin embargo, los usuarios se sienten ansiosos e incapaces de controlar estos sistemas”, argumentó.

Shneiderman ha afirmado que los diseñadores corren el riesgo de absolver a los humanos de la responsabilidad ética de las acciones tomadas por los sistemas autónomos, que van desde los autos hasta las armas.

El conflicto apareció por primera vez en dos laboratorios de ciencias informáticas que fueron creados en 1962 cerca de la Universidad Stanford, en California. John McCarthy, un científico informático que había acuñado el término “inteligencia artificial”, estableció el Laboratorio de Inteligencia Artificial de Stanford con el objetivo de crear una “máquina pensante” en una década.

Y Douglas Engelbart, que inventó el mouse de la computadora, creó el Centro de Investigación de Aumento en el Centro de Investigación de Stanford y acuñó el término “inteligencia aumentada”.

En los últimos años, los investigadores han intentado volver a unir los dos campos, describiendo la disciplina resultante como inteligencia artificial “humanista” o “centrada en el humano”.

La autonomía de máquinas ha sido descrita como una escala unidimensional que abarca desde máquinas que se controlan manualmente hasta sistemas que funcionan sin intervención humana.

Shneiderman ha esbozado una alternativa bidimensional que permite tanto altos niveles de automatización de máquinas como control humano. Dice que el objetivo de los diseñadores computacionales debería ser sistemas en los que la computación se use para extender las habilidades de los humanos.

Gill Pratt, director del Instituto de Investigación Toyota, aboga por mantener a los humanos “involucrados”. Su Instituto ha estado desarrollando Guardian, una “asistencia al conductor súper avanzada”.

Robert O. Work, subsecretario de Defensa de los presidentes Donald J. Trump y Barack Obama, respaldó la idea de los llamados sistemas de armas centauro, que requerirían control humano, en lugar de robots asesinos basados en inteligencia artificial, ahora llamados armas letales autónomas.

 

Hay escépticos.

“La noción de Ben de que su modelo bidimensional es una nueva perspectiva simplemente no es verdad”, declaró Missy Cummings, directora del Laboratorio de Humanos y Autonomía de la Universidad Duke, en Carolina del Norte, quien dijo que se apoyaba en las ideas de interfaz humana de Shneiderman en las clases de diseño que ella imparte.

“El grado de colaboración debería ser impulsado por la cantidad de incertidumbre en el sistema y lo crítico de los resultados”, indicó. “Los reactores nucleares son altamente automatizados por una razón: los humanos a menudo no tienen tiempos de reacción lo suficientemente rápidos para empujar las barras si el reactor entra en una fase crítica”.

 

Calle 140 Nº 1150. Berazategui, Buenos Aires, Argentina