Mitos de la autoconciencia »Enrique Dans

Posted on

Mi columna en Invertia esta semana se titulaba “Algoritmos, Conciencia… e Ignorancia” (pdf), y trataba de explicar por qué los ingenieros de Google soñaban con la autoconciencia de los algoritmos de conversación simplemente absurdos, y ellos no eran responsables.

blake limon él era un ingeniero de Google que anteriormente tenía un problema: un cristiano ultraconservador que envió documentos a los senadores estadounidenses tratando de demostrar que la empresa discrimina a las personas con sentimientos religiosos. Ahora, tras recopilar una serie de diálogos con el sistema de creación chatbot de una empresa llamada LaMDA, esta persona ha llevado no solo un reclamo del que el sistema se ha dado cuenta, sino que incluso trató de consultar con un abogado para defender los derechos del software como ser humano, y al Washington Post para publicar en el tema. Obviamente, lo mejor que Google cree que puede hacer en tal escenario es negar el incumplimiento de un acuerdo de confidencialidad con la empresa y poner al ingeniero, con razón, en un estado de suspensión.

Afirmar que los algoritmos conversacionales pueden “adquirir conciencia”, como si la conciencia fuera algo que encuentras un día mientras hablas, o que pueden adquirirse “accidentalmente”, como en Terminator o Hum∀ns, es absolutamente absurdo. , pero más si también te dedicas, quizás, a trabajar el tema. Un algoritmo conversacional se alimenta precisamente de conversaciones convenientemente etiquetadas, y puede ser entrenado para hablar de cualquier tema, desde filosofía hasta el sentido de la vida, pasando por situaciones de atención al cliente o, incluso si queremos, para empezar a coquetear y acabar soltando gemidos en versos eróticos. .

A partir de ahí, preguntarse si el chatbot “ha desarrollado conciencia”, si “el miedo está apagado”, “la soledad” o la “preocupación humana” es simplemente estúpido, antropomorfismo de tecnología inexistente. consciente, o no tener rastro en ningún momento en el futuro cercano. Es como pensar que porque el aparato habla, es que tener gente ahi.

El problema es que los expertos, personas con credenciales de ingeniería de Google, acuden a los medios para decir si un chatbot ha tomado conciencia, de que estamos hablando de una sociedad que ha visto cómo las expectativas sobre el tema han cambiado muy rápidamente, y por tanto, puede incluso llevar a muchos incautos a creerlo. Hasta hace poco tiempo, el sistema de habla era un discurso que ensamblaba palabras previamente grabadas por hablantes humanos, quienes, por no saber ensamblar, debían ser grabadas con una entonación monótona. Por lo general, la “voz de robot”, la falta de entonación, es el resultado de un momento en el desarrollo de la tecnología. Cuando comenzamos a crear una máquina de hablar alimentando el algoritmo de aprendizaje automático Con conversaciones convenientemente marcadas, obtenemos un sistema con un rendimiento asombroso, lo que lleva a muchas personas a creer que el sistema está “pensado”, que lo único que hace es ser capaz de dar respuestas que son relevantes para un contexto particular.

Que mucha gente crea, por la visión mística de los ingenieros de Google, que el sistema es de aprendizaje automático podría ser consciente de sí mismo si bien en la práctica solo ejecuta algoritmos, implica que una buena parte de la sociedad comienza a temer a la tecnología oa creer que la ciencia ficción y las máquinas conscientes ya están aquí. Y eso es malo, porque empezaron a desconfiar de mucha tecnología que podría ser muy interesante, a cambio de creer que la tecnología ya está disponible tan lejos de aquí. La conciencia es un mecanismo muy complejo, en el que los investigadores se encuentran aprendizaje automático no funcionan es solo, bombo publicitario subió al poder n. Y como tal, es peligroso.

Detengámonos con las máquinas que se consideran conscientes y sigamos intentando crear aplicaciones estadísticas que puedan hacer que las máquinas realicen tareas de automatización avanzadas que se aplican a más y más. El primero no era más que miedos sin fundamento, preguntas irrelevantes y, ahora, historias de ciencia ficción para las tramas de libros, películas y series. La segunda, en cambio, es la clave de la próxima revolución en la productividad y, posiblemente, de toda la revolución en la forma en que entenderemos el trabajo en el futuro. Lo cual no está nada mal. Y por todo eso, no necesitamos máquinas para tener ningún tipo de conciencia.


Este artículo también está disponible en español en la página de Medium, «No, las máquinas no tienen conciencia, y no la tendrán por mucho tiempo, si es que alguna vez»