martes, 29 de junio de 2021

EL DAÑO DE LAS EXPECTATIVAS

"Una relación se rompe, el éxito se esfuma inesperadamente, la salud se deteriora de un momento a otro. 


Y por alguna razón, nos sentimos llamados a atender esa abrumadora decepción, y nos dejamos abrazar tiernamente por ese momento de gran incertidumbre.


Y muy en el fondo de nuestra decepción descubrimos no una pérdida de algo real, sino la pérdida de un sueño que narraba ‘cómo tenía que ser la vida’; no se trata de una pérdida de algo esencial, sino la disolución de todas las bases conceptuales - bases débiles, inestables, completamente ficticias, ¡en las que habíamos intentado construir una vida 'real’! 


Y de esta manera permitimos que nuestros viejos sueños mueran, que las formas caducas y viejas colapsen, y lloramos sobre nuestras expectativas hechas pedazos.


 Nuestras expectativas, por un momento, nos brindaron comodidad, y así nos habíamos permitido vivir en una dichosa ignorancia.


Pero el nuestro, no es un camino de comodidades, amigos, ¡es un camino de Verdad!


 La Verdad no viene a menudo con una sonrisa, sino con una espada, y llega sin previo aviso.


 Nosotros no huimos mientras la ilusión muere. No huimos. A esto le llamamos Confianza".


Jeff Foster

¿Somos libres para decidir? Esto dice la neurociencia

magine que este fin de semana tiene que elegir entre ir al teatro acompañado de un grupo de amigas y amigos o ir a cenar con un grupo diferente. La decisión que tome dependerá del interés de la obra que se estrena o de la calidad de la comida que le ofrecen, así como del aprecio que sienta por unos u otros. Eso sí, los dramas no le gustan y tampoco es fan de las paellas. Al final, dejará pendiente la elección hasta saber a qué grupo se incorpora esa persona tan importante para usted. ¿Es esta una decisión libre o mediatizada? 

Parece que hay muchos condicionantes, a favor y en contra, del camino a seguir. En realidad, su decisión sería completamente libre si un día se inclinase por una actividad y otro por la opuesta. Pero, ¿cuándo se darán las mismas exactas circunstancias? En la práctica, nunca. Ese es uno de los problemas de lo que se entiende, en sentido estricto, por libre albedrío: la capacidad de tomar decisiones diferentes ante exactamente las mismas condiciones ambientales, sociales, individuales y emocionales.

A este problema se une lo ya apuntado por filósofos como Spinoza y Schopenhauer: una persona puede hacer lo que quiera, pero no elegir lo que quiere. ¿Sabe acaso por qué le gustan las comedias y no los dramas, o las tortillas y no las paellas? ¿Estamos predeterminados a lo que decidimos? Para estos filósofos parece que sí, pero obviamente no para todos. La batalla del determinismo tiene también un sustrato religioso. Por ejemplo, los jesuitas defendían en su momento que el libre albedrío era necesario para poder alcanzar la salvación. Los jansenistas y protestantes creían en la predestinación, por lo que uno poco podía hacer en ese caso.

La neurociencia entra en escena

Esta batalla sobre la libertad de elegir se ha extendido a nuestros días y alcanzado el quehacer de los neurocientíficos. Desde Platón y Descartes se asume que el ser humano está compuesto de materia y espíritu y que, mientras el segundo se ocupa de las funciones más nobles como aprender, amar y decidir, el primero lo hace de tareas más burocráticas como comer, andar y picar piedras. Incluso los expertos en derecho penal ven difícil aplicar los conceptos de responsabilidad y culpabilidad a decisiones tomadas por una estructura material como es nuestro cerebro.

Únase y apueste por información basada en la evidencia.

En la actualidad, la inmensa mayoría de los neurocientíficos aceptamos que es nuestro cerebro el que ocasiona y regula lo que hacemos y lo que pensamos. Es decir, comportamientos, deseos, recuerdos, emociones y pensamientos dependen de la actividad de porciones específicas de nuestro cerebro. Si para ver hace falta la retina y partes definidas de la porción más posterior del cerebro, denominada corteza visual u occipital, para tocar el piano hace falta la actividad coordinada de porciones específicas de las cortezas parietal, prefrontal y motora y así para todas las demás actividades que hacemos, sentimos o pensamos.

¿Cómo ocurre la actividad consciente, es decir, aquella que nos permite percibir el mundo exterior, adquirir conocimientos y tomar decisiones? A fin de cuentas, todo esto subyace al proceso de decidir, de elegir lo que uno quiere hacer.

En primer lugar, gran parte de la actividad cerebral ocurre de forma inconsciente. 

Le pongo como ejemplo un experimento realizado por nuestro grupo. Cuando vemos una película estilo Hollywood, las imágenes se suceden de forma pausada con cortes espaciados varios segundos. Así podemos seguir las escenas percibiendo todo lo que ocurre. Con los montajes típicos de la MTV el tiempo entre corte y corte es muy breve (no más de dos segundos) y, aunque creemos que vemos todo lo que nos enseñan, la realidad es que no es así. Ocurre que, para que la información visual se haga consciente, la actividad cerebral debe alcanzar la porción más rostral del cerebro, el lóbulo prefrontal. 

Cuando las imágenes se sustituyen rápidamente la activación cerebral no llega al lóbulo prefrontal y no somos completamente conscientes de lo que se muestra. Aun así, tenemos la sensación subjetiva de que estamos viendo el contenido global del filme, pero es gracias a una percepción subconsciente. Ese procesamiento subconsciente también ocurre, en parte, cuando tratamos de decidir qué hacer: desde elegir teatro o cena, hasta estudiar ingeniería o ciencias económicas tras la Selectividad.

Una elegante demostración de que la actividad cerebral precede a la actividad mental consciente es un experimento en el que se estudia el momento “¡ajá!”, algo parecido al momento en que Arquímedes dijo “¡eureka!”. 

Decimos “¡ajá!” como sinónimo de “¡lo encontré!” cuando hemos estado buscando la solución a un problema matemático, o a un dilema de otra índole y, de repente, parece que se nos ilumina la mente y encontramos la solución. Ocurre que, en el caso de que sea una cuestión lingüística, más de un segundo antes de que digamos “¡ajá!” se activan porciones específicas de la zona parieto-occipital y de la corteza temporal anterosuperior. Por supuesto, nuestro estado consciente varía a lo largo del día mientras estamos activos, descansando, pensando en las musarañas o durmiendo. A cada una de esas situaciones corresponde una actividad cerebral determinada.

No diga libre albedrío, diga toma de decisiones

Por las limitaciones conceptuales indicadas más arriba sobre el libre albedrío, los neurocientíficos preferimos manejarnos con el más flexible concepto de toma de decisiones. Independientemente de que sean libres o determinadas, lo que interesa saber es qué ocurre en el cerebro cuando tomamos una decisión determinada. 

No solo las personas tomamos decisiones. Según en qué situación esté, un gato puede preferir buscar comida, buscar pareja o simplemente dormitar. La elección de cualquiera de esas actividades ocurre a partir de motivos internos de mayor o menor contenido emocional (hambre, impulso sexual, sueño) y están regidos de modo primordial, aunque no único, por el lóbulo prefrontal, el cual regula la actividad necesaria para satisfacer estas necesidades y las termina cuando se alcanza la recompensa deseada.

Pero no se preocupe: no somos máquinas. Somos seres vivos con motivos internos que nos llevan a explorar y entender el mundo que nos rodea y a nosotros mismos. Esperemos que para bien. 

Los 5 pilares éticos de la inteligencia artificial

 Para todo aquél que quiera liderar la transformación digital de su organización, la pregunta crucial es ¿cómo puede beneficiarse mi empresa de las oportunidades que ofrece la tecnología al tiempo que salvaguarda el bienestar de empleados, clientes y sociedad?.

La inteligencia artificial en la empresa se tiene que apoyar en pilares éticos

El escenario que ahora se vislumbra, tanto de amenazas como de oportunidades, es en el que convivirán los niños de hoy en día en el que la presencia de máquinas inteligentes será una constante en sus vidas.

Así, el nivel y la velocidad de disrupción y cambio al que se enfrentan los responsables de las empresas y la sociedad por el avance de la inteligencia artificial (IA) no tiene precedentes en la historia de la humanidad.

A diferencia de las anteriores tecnologías disruptivas que emergieron lentamente, en la actualidad estamos viendo como la IA impulsa el desarrollo de nuevos productos, hace posible experiencias extraordinarias de cliente y varía la naturaleza del trabajo en sí.

Pero para que la inteligencia artificial suponga un verdadero éxito, debe implantarse de manera responsable

A fin de crear una empresa ética y mantenerla en el futuro, la inteligencia artificial debe regirse y controlarse de manera responsable, y por eso queremos mostrar 5 pilares éticos en los que se debe apoyar la IA en nuestras organizaciones.

Vamos a verlos:

1. Transformar el lugar de trabajo

El reto más inmediato al que se enfrentan los directivos es la disrupción en el lugar de trabajo, que se ve afectado por el cambio radical en las funciones y las tareas y el auge de análisis de datos para la toma de decisiones basadas en la automatización.

Aunque se ha prestado mucha atención al potencial impacto negativo de las tecnologías de automatización en los puestos de trabajo, creemos que ello distrae lo que verdaderamente es importante:crear las habilidades que las empresas van a necesitar para alcanzar el éxito y potenciar el valor a largo plazo en un mundo digitalizado.

La plantilla del futuro requiere un nuevo enfoque en la empresa, transparente y completamente centrado en el empleado

Inteligencia Artificial en la Economía circular: robot en la agricultura

¿Cómo pasar a la acción?

Las organizaciones pueden prepararse ya para estos cambios, ayudando a los empleados a adaptarse a la función de las máquinas en sus puestos de trabajo

Plantearse una asociación con instituciones académicas u otras organizaciones líderes en este tipo de conocimientos para crear programas con el fin de ayudarles con estas nuevas habilidades.

Esto también ayuda a las organizaciones a contratar con eficiencia, y ayudarán a los estudiantes a decidir una trayectoria profesional en un campo demandado.

Simultáneamente, los responsables han de ser conscientes de que la transformación en el lugar de trabajo constituye un reto de gestión del cambio

Esto lleva aparejado comunicar claramente los cambios y ventajas de la adopción, hasta el nivel de las tareas, y fomentar nuevas funciones y roles que añadan valor para el trabajo y la empresa.

La dirección debe ser consciente y reconocer necesidades individuales, así como determinar la mejor manera de proporcionar una formación y un desarrollo en consonancia con sus aptitudes e intereses.

También debe plantearse crear encuestas que examinen el grado de preparación del personal, y proponer un plan para subsanar las carencias.

El desarrollo de iniciativas específicas de formación y su adecuada comunicación serán factores clave del éxito.

2. Establecer supervisión y buen gobierno

Existen iniciativas emergentes enfocadas a la creación de nueva regulación y supervisión de la IA, como pueden ser el Reglamento General de Protección de Datos (RGPD), elaborado y aprobado por la Unión Europea en 2018, y el establecimiento, en febrero de 2019, de la American AI Initiative.

Estos marcos de actuación refuerzan nuestro punto de vista de que las empresas deben poner ya en marcha iniciativas formativas, antes de la disrupción más profunda en la plantilla propiciada por la IA.

En última instancia, la responsabilidad de formar y gestionar a la plantilla capacitada para la IAcorresponde a la empresa, y cuanto antes inicien los responsables este recorrido, más influencia tendrán en las iniciativas y reglamentos venideros.

¿Cómo pasar a la acción?

Establecer políticas claras en toda la empresa respecto de la implantación de IA, incluido el uso de datos y reglas de privacidad

Al adoptar esta importante medida se mantiene a la empresa en la vanguardia y puede ayudar a influir en la dirección de la legislación, dado que los responsables de la elaboración de políticas toman como modelos a las organizaciones de éxito.

Gobierno de datos e IA

Cada organización (de cualquier tamaño o naturaleza) necesita conocer a fondo los datos y los marcos que respaldan la IA, de modo que puedan utilizar ese conocimiento para inspirar confianza a las partes interesadas.

Las marcas han de ajustarse a los datos y establecer prácticas firmes de buen gobierno, y necesitarán también supervisar los resultados de manera continua para asegurarse de que son equitativos y precisos, y que se mantienen fieles a los objetivos originales.

Crear algoritmos basados en un sólido marco ético

Este es un imperativo básico para los encargados de implantar la IA de manera responsable.

Los responsables de las empresas y los Gobiernos deben establecer jerarquías de responsabilidad para la construcción y la implantación de algoritmos complejos.

Los responsables pueden tomar medidas para incluir la incorporación de responsables de ética en el equipo de alta dirección, creando comités directivos que incluyen a diversos responsables.

3. Alinear la ciberseguridad y la ética en IA

Los algoritmos autónomos suscitan dudas acerca de riesgos de seguridad a medida que aumenta su influencia en el negocio.

Los ataques deliberados que envenenan los algoritmos falsificando datos de formación pueden llegar a poner en peligro la privacidad y generar sesgo, deteriorando la experiencia del usuario y dañando la propiedad intelectual, la reputación de la marca u otros activos clave de la empresa.

Integrar personas y máquinas de forma que se aprovechen al máximo las capacidades de ambas es el gran reto al que se enfrentan ahora las empresas.

Este es uno de los motivos por los que gobernar y controlar los sistemas de aprendizaje automático (machine learning, ML) sean prioridades urgentes.

Las empresas son conscientes de que mitigar el riesgo que plantean los algoritmos es imperativo para la empresa y la marca.

Pero la necesidad va mucho más allá, pues los sistemas de aprendizaje automático (ML), cada vez más sofisticados, influyen en el comportamiento y las expectativas de las personas.

Son millones los dispositivos IoT expuestos a problemas de seguridad

¿Cómo pasar a la acción?

Aportar una fuerte seguridad a la creación de algoritmos y el gobierno de los datos

Cuando hay una dirección ética en los fundamentos del desarrollo de algoritmos, la integridad general del modelo será más sólida.

Estos aspectos contribuyen a aportar seguridad a la IA:

  • Conocer a fondo el contexto y el propósito buscado conforme al que se desarrolló el modelo
  • Identificar quién habilitó los algoritmos
  • Conocer la procedencia de los datos y los cambios realizados en los mismos
  • Conocer cómo se atienden y protegen los modelos ahora y en el pasado
  • Llevar a cabo una revisión y una confirmación continuas de la efectividad y la precisión del algoritmo

4. Reducir el sesgo

Los responsables y los reguladores quieren conocer el funcionamiento de algoritmos sofisticados y autónomos, a fin de poder adoptar medidas para eliminar sesgos parciales a lo largo del tiempo mientras continúan evolucionando.

Por este motivo, ha pasado a ser muy importante conocer qué atributos de los datos de habilitación influyen en las predicciones del modelo.

Cuando la habilitación se interrumpe durante largos periodos de tiempo, el modelo puede perder integridad: el sesgo puede aparecer y problemas como los ataques deliberados pueden poner en peligro la información que incorpora.

Todos los responsables deben asumir el imperativo moral de mitigar el sesgo mediante el gobierno de IAdurante todo su ciclo de vida, y a continuación adoptar nuevas medidas para gestionar y dirigir una plantilla cada vez más diversa a medida que cambia la naturaleza del trabajo.

Controlar los algoritmos sofisticados es un elemento esencial de la ética en IA. Los algoritmos no serán objeto de confianza si no son equitativos, y para ello han de ser diseñados y construidos para que estén lo más libres posible de sesgos. Además, necesitan mantener la equidad a medida que evolucionan. 

Según estudios recientes, la inteligencia artificial funciona mejor si no se la utiliza como una especie de caja mágica para sustituir a los humanos y recortar costes, sino como una fuerza multiplicadora que se emplea para crear nuevo valor.

Al hacer que la IA sea más explicable, auditable y transparente, podemos conseguir que nuestros sistemas sean más equitativos, efectivos y útiles.

¿Cómo pasar a la acción?

Velar por que la meta y la finalidad de los algoritmos críticos se definan y documenten claramente

Verificar que el diseño está en consonancia con los principios, normas y directrices, valores y ética empresariales, cumplimiento, y normas de seguridad y calidad.

La mejor manera para identificar y evitar el sesgo podría encontrarse en los equipos encargados de dirigir la habilitación de los algoritmos.

Asimismo, es importante llevar a cabo una revisión independiente de modelos críticos en los que el sesgo pueda producir un impacto social adverso.

Sin acciones de este tipo, las propias oportunidades y ventajas de la IA podrían desvanecerse.

5. Aumentar la transparencia

Algunos directivos están proponiendo normas universales de equidad a medida que avanza la IA y el aprendizaje automático (ML).

El objetivo sería la transparencia y, sobre todo la claridad, para ciudadanos y consumidores a quienes confunden los datos y la información que proporcionan en experiencias digitales (y analógicas).

El poder y el compromiso de la IA pueden llegar a su máximo nivel si entendemos y controlamos su estructura y acciones. Por ello, las empresas han de establecer una política de gestión general para la IA, haciendo hincapié en extender el poder de las tecnologías de IA de forma responsable.

Las empresas (especialmente las grandes tecnológicas) están lanzando mensajes claros e interfaces de usuario para que las personas puedan entender y decidir fácilmente cómo han de prestar servicio las marcas.

Este debe ser el valor por defecto para el énfasis de cualquier marca en la creación e impulso de la confianza.

En las ciudades conviven múltiples culturas

¿Cómo pasar a la acción?

Crear contratos de confianza

Proporcionar a los clientes la claridad y la información que buscan y necesitan. Este es el principio rector básico que las marcas deben aplicar.

La parte complicada consiste en ofrecer sencillez y claridad acerca de aspectos complejos, explicando cómo se utilizan los datos y por qué influyen en la experiencia del cliente.

Es necesario hacer llegar al público que se está siendo transparente y lo que van a suponer las decisiones acerca de los datos personales.

Hay que considerar el manejo de la información de identificación personal y los datos como lo que se conoce como un contrato de confianza.

Si te ha interesado este tema y quieres profundizar en él puedes acceder al informe de KPMG titulado Ética en IA: cinco pilares, y disponible en nuestro fondo documental ecointeligente.

nuevas pistas sobre el origen del alfabeto desenterradas en tel lakhish

 

El pedazo de cerámica mide 40x35mm.

Foto: J. Dye, Austrian Academy of Sciences.

en el curso de las campañas de excavación llevadas a cabo durante el 2018 en Tel Lakhish se encontró un ostrakon (trozo de cerámica inscrito) con unos curiosos signos muy parecidos al alfabeto semítico, el predecesor directo de los fenicio y griego. Sin embargo los arqueólogos que excavaron el lugar decidieron datar la pieza sobre el siglo XIV a.C. por lo que descartaron que fuera una forma arcaica de ese sistema de escritura y se inclinaron por considerarlo una variación regional.

Concretamente el fragmento fue desenterrado en la habitación de la derecha, justo en frente del muro 1220.

Foto: J. Dye & L. Webster, Austrian Academy of Sciences.

UN FRAGMENTO POLÉMICO

Sin embargo estas conclusiones no convencieron a la mayoría de los especialistas, quienes consideraban la inscripción más antigua por su mayor similitud con los ancestrales signos jeroglíficos de los que deriva el sistema de escritura semítico.

El ostrakon en disputa era un trozo de un bol de leche chipriota, que presentaba dos lineas de texto diagonal trazadas en su parte interior con un signo entre ellas y algunos más en la esquina superior derecha. Respecto a su traducción la primera línea se leyó como «esclavo» y la segunda como «néctar» o «miel», quizás refiriéndose a un sirviente que trabajaría recogiendo miel y sería el propietario del bol.

El tipo de bol chipriota del que procede el fragmento fue fabricado en Oriente Próximo entre 1500 y 1200 a.C.

Foto: Cordon Press

EL ESLABÓN PERDIDO

Afortunadamente el nivel en el que se encontró la inscripción tenía restos de madera quemada, que han sido analizados mediante radiocarbono a fin de obtener una datación más exacta. El nuevo estudio revela que el sedimento que rodeaba la pieza pertenece a la primera mitad del siglo XV a.C., por lo que la inscripción es una forma del alfabeto a medio camino entre sus orígenes y su aspecto final, como ya apuntaban los lingüistas.

Las gentes que habitaban la zona durante el segundo milenio tenían trato habitual con los egipcios, e incluso hubo una dinastía de faraones locales, los hicsos, que gobernaron el Bajo Egipto de los siglos XVIII al XVII a.C. Todos estos contactos propiciaron un cierto tráfico de cultura e ideas entre ambos pueblos, a través del que una forma adaptada de los jeroglíficos empezó a popularizarse entre los habitantes del Levante hasta derivar en los numerosos alfabetos que conocemos hoy en día.

La daga de Lakish constituye el ejemplo más antiguo (1.600 a.C.) de alfabeto semítico encontrado en el yacimiento, nótese que las grafías son todavía pictogramas de estilo egipcio.

Foto: Wikimedia Commons