Filosofía

La Inteligencia Artificial está Destruyendo Nuestra Libertad de Elección y Oportunidad

Este concepto está transformando totalmente el significado    real del ser humano.

La historia del uso de la tecnología por parte de los humanos siempre ha sido una historia de coevolución. Filósofos, desde Rousseau hasta Heidegger y Carl Schmitt, han argumentado que la tecnología nunca será una herramienta neutral para lograr los fines humanos. Las innovaciones tecnológicas, desde las más rudimentarias hasta las más sofisticadas, remodelan a las personas a medida que utilizan estas innovaciones para controlar su entorno. La inteligencia artificial es una herramienta nueva y poderosa, y también está alterando a la humanidad.

La escritura y, más tarde, la imprenta hicieron posible registrar cuidadosamente la historia y difundir fácilmente el conocimiento, pero eliminó tradiciones centenarias de narración oral. Las ubicuas cámaras digitales y telefónicas han cambiado la forma en que las personas experimentan y perciben los eventos. Los sistemas GPS ampliamente disponibles han significado que los conductores rara vez se pierden, pero depender de ellos también ha atrofiado su capacidad nativa para orientarse.

La IA no es diferente. Si bien el término IA evoca ansiedades sobre robots asesinos, desempleo o un estado de vigilancia masiva, existen otras implicaciones más profundas. A medida que la IA da forma cada vez más a la experiencia humana, ¿cómo cambia esto lo que significa ser humano? Un elemento central del problema es la capacidad de una persona para tomar decisiones, en particular los juicios que tienen implicaciones morales.

La IA se está utilizando para propósitos amplios y de rápida expansión. Se utiliza para predecir qué programas de televisión o películas querrán ver las personas en función de sus preferencias pasadas y para tomar decisiones sobre quién puede pedir dinero prestado en función del rendimiento pasado y otros indicadores de la probabilidad de reembolso. Se utiliza para detectar transacciones comerciales fraudulentas e identificar tumores malignos. Se utiliza para decisiones de contratación y despido en grandes cadenas de tiendas y distritos escolares públicos. Y se utiliza en la aplicación de la ley, desde la evaluación de las posibilidades de reincidencia hasta la asignación de la fuerza policial y la identificación facial de sospechosos de delitos.

Aristóteles argumentó que la capacidad de emitir juicios prácticos depende de hacerlos regularmente, del hábito y la práctica. Vemos el surgimiento de las máquinas como jueces sustitutos en una variedad de contextos cotidianos como una amenaza potencial para las personas que aprenden a ejercer el juicio de manera efectiva.

En el lugar de trabajo, los gerentes toman decisiones rutinariamente sobre a quién contratar o despedir, qué préstamo aprobar y dónde enviar a los agentes de policía, por nombrar algunos. Estas son áreas en las que la prescripción algorítmica está reemplazando el juicio humano, por lo que las personas que podrían haber tenido la oportunidad de desarrollar un juicio práctico en estas áreas, ya no lo harán.

Los motores de recomendación, que son intermediarios cada vez más frecuentes en el consumo de cultura de las personas, pueden servir para limitar la elección y minimizar la oportunidad. Al presentar a los consumidores opciones seleccionadas algorítmicamente sobre qué ver, leer, transmitir y visitar a continuación, las empresas están reemplazando el gusto humano por el gusto de la máquina. En cierto sentido, esto es útil. Después de todo, las máquinas pueden examinar una gama más amplia de opciones de las que cualquier individuo probablemente tenga el tiempo o la energía para hacerlo por su cuenta.
Los servicios que hacen recomendaciones basadas en preferencias, como qué películas ver, reducen los descubrimientos fortuitos.

Sin embargo, al mismo tiempo, esta selección se optimiza para lo que las personas probablemente prefieran en función de lo que han preferido en el pasado. Creemos que existe cierto riesgo de que las opciones de las personas se vean limitadas por su pasado de una manera nueva e imprevista: una generalización de la “cámara de resonancia” que la gente ya está viendo en las redes sociales.

Es probable que la llegada de potentes tecnologías predictivas también afecte a las instituciones políticas básicas. La idea de los derechos humanos, por ejemplo, se basa en la idea de que los seres humanos son agentes majestuosos, impredecibles y autónomos cuyas libertades deben ser garantizadas por el Estado. Si la humanidad, o al menos su toma de decisiones, se vuelve más predecible, ¿las instituciones políticas continuarán protegiendo los derechos humanos de la misma manera?

A medida que mejoran los algoritmos de aprendizaje automático, una forma común de IA “estrecha” o “débil”, y a medida que se entrenan con conjuntos de datos más extensos, es probable que partes más importantes de la vida cotidiana se vuelvan completamente predecibles. Las predicciones serán cada vez mejores y, en última instancia, harán que las experiencias comunes sean más eficientes y agradables.

Los algoritmos pronto, si aún no lo han hecho, podrían tener una mejor idea sobre qué programa le gustaría ver a continuación y qué candidato de trabajo debería contratar que usted. Un día, los humanos pueden incluso encontrar una forma en que las máquinas puedan tomar estas decisiones sin algunos de los prejuicios que los humanos suelen mostrar.
Pero, en la medida en que la imprevisibilidad sea parte de cómo las personas se entienden a sí mismas y parte de lo que les gusta de sí mismas, la humanidad estará en proceso de perder algo significativo. A medida que se vuelvan más y más predecibles; y las criaturas que habitan en el mundo, cada vez más mediado por la IA; se parecerán cada vez menos y menos a nosotros mismos.

Fuente: The Conversation.

SHARE
RELATED POSTS
Lo que Einstein quiso decir con ‘Dios no juega a los dados’
La Corrupción: El origen de este Cáncer Social
LA ALIENACIÓN EN UN MUNDO ATERRORIZADO POR EL COVID-19

Comments are closed.