¿Es posible que la Inteligencia Artificial sea creativa?

¿Qué es la creatividad? Es la capacidad de crear cosas, nuevas ideas o conceptos, o diferentes asociaciones entre ideas y conceptos conocidos, lo que produce también conclusiones nuevas que generan soluciones originales. Así pues una cosa o idea es creativa si tiene algo novedoso, original y además sirve para algo a su creador o a la sociedad.

La creatividad es encontrar soluciones originales, por ejemplo, airbnb. Siempre ha sido posible alquilar una casa o una habitación, pero con la creación de la plataforma se pone en comunicación una gran cantidad de oferta y demanda para que los propietarios y los clientes se pongan de acuerdo de forma directa a través de una aplicación que gestiona la reserva y el pago del servicio.

Consiste también en aprovechar una idea ya existente pero adaptándola a otro sector para el que en principio no se había pensado, Amazon con su servicio de reparto de comida fresca en algunas ciudades. ¿Si reparten todo tipo de mercancía, por qué no hacerlo con la comida?

Y desde luego tiene la capacidad de transformar y revolucionar, ya que en ocasiones cambia de manera radical la forma de hacer las cosas. Por ejemplo, Uber o Cabify, permiten que el mercado del transporte, traspase los límites del taxi, ofreciendo un servicio personalizado y rápido, con un coste prefijado y pagado antes de iniciar el trayecto.

¿En qué sentido existe la creatividad en la IA?

Una inteligencia artificial es capaz de crear una obra de arte totalmente novedosa, a través del aprendizaje automático, machine learning. O, por ejemplo, un corto, escrito por una inteligencia artificial y grabado en apenas dos días.

También tenemos el ejemplo del colectivo Obvious que utiliza GANs, un algoritmo que consta de un generador que crea las imágenes partiendo de las que tiene en su banco de datos. La otra parte del algoritmo, un discriminador, busca las diferencias entre lo realizado por un humano y por una máquina. Se trata de engañarlo para que la imagen creada parezca hecha por un humano. GAN es capaz de crear en cualquier estilo artístico.

¿En qué momento es creativa la IA? 

Los humanos dan las reglas, datos para que encuentren un patrón, pero después la IA es la que crea a su antojo. Es decir tiene una cierta autonomía para hacer sus obras de arte. Sin embargo, la pregunta es sin un programador, sin una base de datos, sin algo ya existente, ¿sería posible? La respuesta es que los ordenadores actuales tienen capacidad de programarse a sí mismos, crean sus propios algoritmos basados en sus bases de datos, por lo que gozarían de libertad para crear sin la intervención de un humano.

Y si todo se desarrolla como actualmente, la IA será capaz de hacer lo que un humano y con las posibilidades que ofrece disponer de una enorme base de datos, mejor, y sin límites.

Pero, ¿esta reproducción puede considerarse creatividad? ¿puede una IA aportar la sensibilidad, la emoción que pone un humano? la que aporta un creador en un momento dado de su historia y que hace que él mismo y su obra sean excepcionales. En principio la IA no tiene ni afectividad ni emociones propias. Su única experiencial vital son sus bases de datos. Lo que no podemos saber es qué pasará en el futuro y es muy posible que los algoritmos doten de emotividad y afectividad a las inteligencia artificiales. 

¿Significa eso que la IA sustituirá a los humanos en los puestos creativos? Solo la interacción entre programador e IA ya es un proceso creativo. Y más que sustituir el trabajo creativo, ya lo hace con el automatizado, la IA tiene que entenderse como una herramienta, un complemento, un multiplicador para el proceso creativo humano. Tal vez no se pueda componer una ópera con la IA, pero sin duda es una buena ayuda en el proceso creativo.

Compañeros no enemigos. El ser humano no va a desaparecer, salvo alguna catástrofe descomunal, y la IA tampoco. Cada día es más autónoma, más inteligente. Es un nuevo compañero de viaje, que algunos consideran que sustituirá al hombre en los procesos de toma de decisiones o de creatividad. Sin embargo, es más creíble pensar que ayudará aún más en el proceso creativo, lo que mejorará la obra del ser humano.

Imagen: Alec Favale

Cómo ayuda la automatización al comercio electrónico

Gestionar las tareas que se realizan a diario en una comercio online es laborioso. De todas ellas hay muchas que son repetitivas, y por ello hay que automatizar, para ser más eficientes.

Atencíón al cliente, preparación de pedidos o envíos, gestión y envío de inventarios, integración de datos entre canales, pagos de los clientes y gestión de sus datos, cálculo del pago de colaboradores… son algunas de las labores que necesariamente se deben realizar. Y se pueden automatizar por medio de soluciones que recopilen datos de distintas fuentes dentro del negocio y que utilicen esta información para realizar los procesos automáticamente.

La automatización permite controlar las complejas operaciones omnicanal y facilita la tarea del propio empresario y el equipo de trabajo.

Beneficios de la automatización

  • Se reducen los procesos manuales que realizan los empleados
  • Se agilizan aquellos procesos que están relacionados con el cumplimiento de requisitos reglamentarios y legales.
  • Permite que los empleados creen valor al disponer de más tiempo para dedicar a tareas especializadas y no administrativas de las que se encarga el software y el hardware.
  • Se reduce mano de obra innecesaria.
  • Se cometen menos errores.

En definitiva se reduce la carga de trabajo diaria automatizando aquellas tareas repetitivas. Y eso ya es una ventaja por sí misma, pero es que además, libera tiempo para dedicarlo a tareas más productivas, como buscar nuevas fórmulas para llegar a los clientes y de esa manera impulsar el crecimiento del negocio. Transforma el tiempo menos productivo en dinero.

¿Cómo se automatiza?

El primer paso para automatizar procesos es conocerlos. Analizando cómo se trabaja en la empresa, describiendo por escrito que es lo que se está haciendo, ya logras algunas ventajas, aún sin haber automatizado nada: 

  1. Puedes definir la metodología, lo que te ayuda a mejorarla, al descubrir pasos o procesos ineficientes. Eres más eficiente.
  2. Si tienes métodos es más fácil que otros puedan desarrollar ese trabajo, tanto el personal de la empresa, como las nuevas incorporaciones. Sigues mejorando en eficiencia.

Para automatizar procesos es posible que necesites desarrollar software o sistemas complejos. Parte del trabajo puedes realizarlo con tus propios recursos, pero es interesante que cuentes con ayuda especializada: zapatero a tus zapatos. 

Crear algunas hojas de cálculo o bases de datos puede incluso hacerlo tú mismo o alguien del equipo, pero si va más allá deberás ser cuidadoso, para que la solución no plantee más problemas de los que quieres solucionar.

Si tienes que recurrir a recursos externos, hay un par de cuestiones a considerar. Trabaja con proveedores que estén alineados con tu forma de trabajar, es importante que las filosofías sean compatibles con las organizaciones y los objetivos. Podrías encontrarte con que para automatizar ciertos procesos te obligue a pasar procesos de certificación o implantar metodologías excesivamente complejas. Vete poco a poco, por lo tanto elige a los que te planteen soluciones flexibles, que puedas desarrollar incluso a lo largo de varios años.

Tras el proceso de creación de las soluciones, será el personal el que debe aprender a utilizar las nuevas herramientas. Idealmente habrán participado en el proceso de desarrollo, es importante que lo sientan como algo suyo, para evitar fricciones o un rechazo que podría traducirse en serios problemas. En los casos más graves puede concluir en la pérdida de la inversión realizada y sobre todo del tiempo empleado.

El proceso de automatización debe implementarse como una hoja de ruta que especifique qué se quiere automatizar, quién participará y cómo se continuará.

La automatización impulsa el crecimiento del comercio electrónico

Todo lo explicado hasta el momento podría aplicarse a cualquier organización, pero es aún más importante en el caso de las empresas dedicadas al comercio electrónico. En el entorno del e-commerce te debes enfrentar a constantes desafios, tienes que ser lo más eficiente posible y encontrar la forma de ser más eficiente que tus competidores. Escalar el negocio es imprescindible para cualquier organización, pero mucho más en el territorio salvaje de Internet, en la mayor parte de los casos crecer es la única forma de sobrevivir.

Los clientes son cada vez más demandantes, exigen más servicios y una mejor atención. Las herramientas que automatizan tareas repetitivas y engorrosas reducen la complejidad de las operaciones y ahorran tiempo. Estas soluciones nos acerca más a los clientes, nos ayudan a entender mejor sus necesidades. Y todo ello se traduce en oportunidades, que además te permiten centrarte en las estrategias de crecimiento, sabiendo que la parte más "mecánica" está correctamente engrasada.

¿Puedes no automatizar tu e-commerce?

A un nivel básico se trata solo de analizar como funciona tu negocio. ¿En serio no te puedes permitir invertir ese tiempo o contratar a alguien que lo haga? Si es así, algo no está funcionando en tu negocio y aún es más importante que saques tiempo para analizar porque no puedes funcionar como una empresa moderna.

Es más, si te haces esta pregunta espero que solo sea desde un punto de vista puramente temporal. Qué el único condicionante sea la oportunidad de empezar hoy mismo. Porque debe ser obvio para ti, que no es posible que puedas competir sin mejorar tus procesos en algún grado. Y eso implicará más o menos automatización, pero que la mejora no forme parte de tu filosofía empresarial no es una opción, porque sencillamente es una garantía para el fracaso.

No tiene sentido realizar tareas de forma manual cuando hay herramientas para hacerlo de forma automática y perder un tiempo muy valioso que se puede dedicar a otras cosas. Además es que en muchos casos ni siquiera supone una gran inversión. Simplemente no es razonable no querer ser más eficaz, más competitivo, conseguir un mayor beneficio. 

Así que sí, tienes que automatizar. Solo tendrás que buscar la estrategia más adecuada de acuerdo con la realidad de tu empresa y tus necesidades.

Imagen: Rodolfo Clix

¿Es seguro Huawei sin Android?

Los usuarios están preocupados porque los nuevos Huawei podrían no contar con los servicios de Google, ni sus aplicaciones favoritas, después de que el gigante estadounidense les revocase la licencia de sus aplicaciones. A los más frikis el tema les parecerá menos grave, incluso un soplo de aire fresco porque se anunció que incluirán una versión open source de Android. Pero a mí me preocuparía bastante más desde el punto de vista de privacidad y la seguridad de la propia información. Porque no es solo que un fabricante no pueda hacer perrerías mil sin que te enteres, pero si además, controla el ecosistema de hardware y software, y viendo como se las gastan en China…

Huawei debería tener importantes incentivos para no hacer tonterías con los datos en Occidente, como mantener su cuenta de resultados, gracias a usuarios satisfechos y otros gobiernos que no les dificulten la actividad. Pero pedir que una empresa china no esté más o menos influida desde instancias oficiales, es como exigirlo de una americana o de cualquier otro país. Cuando llaman del gobierno de turno seguro que alguien coge el teléfono y hace lo que se supone que debe hacer, sin cuestionar en exceso, por la cuenta que les tiene.

Las grandes tecnológicas tienen una desmedida apetencia por nuestros datos e información personal, además de un largo historial de compadreo con los chicos malos y el lado oscuro. Pero el caso chino es especialmente grave. En occidente existen ciertos controles y los gobiernos, al menos, deben dar una imagen de legalidad y transparencia. El caso de China es más preocupante si cabe, porque directamente bloquean el acceso a sus ciudadanos a aplicaciones tan populares como Google, censuran contenidos y con total seguridad espiarán cualquier actividad, especialmente en Internet o en los móviles. Sería absurdo que tomaran las medidas anteriores con los de casa y no se metieran hasta la cocina del resto ¿no crees?

Creo que los fabricantes del gigante asiático deberían ser los primeros interesados en ofrecer total transparencia sobre sus sistemas tecnológicos y cualquier práctica que realicen. Pero es absurdo pensar que puedan actuar de forma diferente a como les "indique" su gobierno. Por tanto para una empresa importante, organismos públicos occidentales, ya no digo de seguridad, fiarlo todo a la hipotética bonhomía de unos u otros, es un riesgo inasumible. Incluso para las PYMEs o profesionales que puedan tener que competir o depender en algún punto de su cadena de suministros de compañías chinas, aunque sea bastante más improbable, yo no me la jugaría. Sobre todo si están trabajando en algún producto que pueda ser estratégico para China.

 

Avatares virtuales, la AI, NEON y el futuro que ya está aquí

Querida mía:

Que me fascinan la AI y la robótica, que me apasiona el futuro, es algo que tienes claro, con la lata que doy siempre con este tema. Con tu edad ya había leído las Fundaciones de Asimov y sus principales novelas de robots. Aunque para ti todo esto no es ciencia ficción, es lo normal. La tecnología nos permite hacer cosas increíbles, y parece que en este preciso momento se está acelerando otra vez.

Los avatares de NEON

Cuando ya hace tiempo anunciaba unos bots virtuales con apariencia humana para antes de 2025, no tenía mérito. Los chatbots “inteligentes” que te atienden en una página web llevan años con nosotros, aunque hoy aún sean incorpóreos, o feos y torpes cuando les han dado apariencia. Pero la dirección que llevaban, hacia donde vamos, estaba clara.

Los desarrollos de avatares cuasi humanos también llevan una buena temporada por ahí, así que unir las dos cosas era solo cuestión de tiempo. Es lo que han hecho en NEON, la startup de Samsung que los ha presentado en el CES de Las Vegas

Los avatares de NEON son seres virtuales con apariencia y comportamiento humano, con la habilidad de mostrar emociones e inteligencia, casi nada. Podrán hacer una enormidad de cosas: ser tu amigo y confidente, o un asistente siempre alerta. Serán capaces de vender o prestar soporte, dar clases a los niños y los adultos, presentar las noticias o actuar en películas. ¿Te imaginas que tu actor o actriz favoritos pudieran hacer 10 películas al mismo tiempo? Pues sería perfectamente posible. Y lo más importante, de cara a un público no especializado, tienen la apariencia más humana que puedas imaginar.

Son lo más guay que he visto en los últimos años, me estalla la cabeza pensando en las posibilidades que tienen. Aparecerán montones de nuevos trabajos para diseñarlos, programarlos, alimentarlos… Aunque no creo que tantos como los que desaparecerán. De todas formas aún tenemos que ver si son un producto real ya, sino fuera así, tendremos que darles un par de años más.

En una primera fase no van a ser más listos que los bots actuales, te lo garantizo. La IA es bastante tonta, en general, pero va conquistando campos poco a poco. Fíjate que para el final de esta década podrán ser más listos que cualquier humano y sus cerebros muy superiores. Pero lo que sí podemos tener claro es que, en un par de años, la organización que no tenga estos avatares en sus web, escaparates o instalaciones, nos parecerá completamente anacrónica, más propia del siglo XIX.

Los robots del futuro están ahí

En el tema de los vaticinios hay uno en el que he fallado estrepitosamente. Dije que sería Apple el que nos sorprendería con este tema, por la pasta que tienen, por el interés que siempre han mostrado en liderar sectores y porque llevaban tiempo contratando especialistas en este área. Pero ha sido Samsung quien se ha adelantado, los desarrollos de Pranav Mistry, el CEO-genio de NEON muestran un potencial notable, ya que ha unido muchas piezas del puzzle. No sé en qué momento está Apple, pero desde luego tiene una competencia muy seria. Eso sin contar con los Google, Microsoft, Amazon, IBM, que sin dudarlo se subirán a este carro. Además, alcanzado un cierto punto las tecnologías están listas para que los pequeños creen cosas sorprendentes. Ya verás los cambios tan increíbles que se producirán en los próximos cinco años, recuérdalo bien, papi te lo dijo primero.

No sé exactamente de qué forma la innovación de NEON acelerará el desarrollo de los robots humanoides, pero como mínimo, obligará a que unos cuantos se pongan las pilas. Si recuerdas, te planteé que alrededor de 2025 habría un androide decente. Boston Dynamics va a buen ritmo con la locomoción de las diferentes versiones de su Atlas, cada vez resultan más sorprendentes, cualquier día les vemos haciendo parkour, pero de verdad. Lo más flojo, de momento, para lograr un androide humanizado, son las capas externas de los robots. Aún queda bastante que desarrollar, para que nos sintamos cómodos en su presencia. Ahora la sensación es más cercana al miedo o a la risa y deberían resultarnos más simpáticos, ¿no crees?

Aunque tampoco hay que enredarse mucho con esto, porque el aspecto humanoide tampoco es imprescindible. De momento habrá que esperar hasta la segunda mitad de la década para su popularización los convierta en un producto más asequible, si para entonces tienes unos cuantos cientos de miles de dólares, creo que podrás hacerte con uno. Lo que es seguro, al margen de su aspecto, es que tendrán un impacto brutal en esas tareas que se supone que no son digitalizables, como el cuidado de personas, o la educación. De las que se puedan digitalizar ya te he hablado en innumerables ocasiones. No creas que no me doy cuenta de la cara que pones, la de ¿este tio estará fumao?

Así que nos encaminamos a un mundo de lo más asimoviano, en lo que se refiere a este magnífico escritor y visionario soy muy friki. Hoy me hubiera encantado preguntarle al bueno de Isaac, si tenía alguna idea brillante sobre temas como el del reparto del trabajo o cómo vivirán aquellos que no puedan acceder a los robots, y sobre todo los que serán reemplazados por éstos. Porque ni los políticos, ni los grandes líderes económicos están destacando en lo que a la imaginación se refiere. O tal vez no tengan una solución o simplemente piensen que no nos gustará. Igual creen que no debemos ser tratados como adultos y explicarnos cómo va a funcionar todo esto.

Tenemos un futuro impresionante a la vista, a ver que somos capaces de hacer. Yo tengo muchas esperanzas puestas en ti. Lo sabes ¿verdad?

 

¿Cómo puede mejorar la IA la experiencia de compra?

Ya es habitual encontrarse en los servicios de atención al cliente con chatbots personalizados. En apenas unos años más, la IA estará detrás de practicamente el 100% de las interacciones con los clientes. ¿Cómo cambiará su experiencia comprando?

Utilizar la realidad virtual

La realidad virtual será una herramienta muy útil en muchas empresas B2C. A los usuarios les puede resultar complicado explicar un problema técnico por teléfono o a través del chat. El servicio técnico, para resolver el problema, tiene que confiar en la descripción que haga el usuario, que puede ser más o menos fidedigna. Tampoco puede comprobar si el usuario está siguiendo de forma correcta las instrucciones que se están proporcionando. 

Una manera de solucionarlo sería el uso de la realidad virtual como prueba de lo que está ocurriendo. De esta manera el empleado puede saber cual es el problema sin que el usuario deba explicar nada y además permitiría comprobar visualmente que el cliente está haciendo exactamente lo que debe. Dando además la sensación de que es una experiencia humana, algo que se echa de menos en este tipo de interacción.

Con la realidad virtual se tendrían los beneficios que tiene una tienda física sin necesidad de que exista. De momento hay dos tecnologías de realidad virtual, Oculus Rift de Facebook y HoloLens de Microsoft, aunque surgirán muchas más.

Reducir la tasa de abandono de clientes y reclamaciones

Para las empresas de comercio electrónico uno de los mayores problemas es el porcentaje de clientes que no cumpletan la compra después de haber metido productos en la cesta.

¿Por qué ocurre esto? Si se tratara de una tienda física, el vendedor es capaz de observar, de interpretar señales y saber que el cliente se le va, con lo que puede reajustar su estrategia e influir para que no lo haga. Pero aquí hablamos de venta online. Sin embargo, la IA puede ayudar en este punto, puesto que puede ser entrenada para detectar señales parecidas en lo que sería el lenguaje corporal virtual. En ese caso, la IA podría reaccionar igual que el vendedor físico y acompañarle a finalizar el proceso aumentando la tasa de conversión y evitando abandonos en la cesta. Se trataría de hacer una buena segmentación de leads, que de alguna manera participaran otros clientes en ese punto y ofreciendo una combinación de productos y servicios.

Para completar el conocimiento de qué ocurre llegados a este punto es interesante introducir una investigación cualitativa, para averiguar qué hay detrás del proceso de toma de decisiones del consumidor.

Mejorar los precios y las promociones

Lógicamente, la automatización inteligente sirve para optimizar recursos y bajar precios, mejorando el servicio. La IA permite analizar datos, los precios de miles de artículos y considerar además los escenarios en que se plantean, lo que puede ayudar a mejorar la rentabilidad de la empresa rápidamente.

Además, la IA es capaz de relacionar, de hacer conexiones que para un humano a esa escala es imposible, para hacer una venta complementaria. Si un cliente compra con frecuencia un determinado producto, hay que ofrecerle los que estén relacionados porque con toda probabilidad le interesarán. La IA es capaz de ir tirando del hilo y encontrar el segmento geográfico, social y económico del usuario para hacerle recomendaciones más personalizadas.

Esto solo es el inicio de lo que la IA, que ya está cambiando el mundo, puede hacer por mejorar la experiencia de compra del cliente.

Novedades en Amazon

Entre las novedades que plantea Amazon se encuentran Amazon Fraud Detector, CodeGuru y Kendra. El primero está destinado a detectar las transacciones sospechosas en las páginas, como el fraude en los pagos o la creación de cuentas falsas. Utilizando los datos y el aprendizaje automático, Amazon Fraud Detector analiza los datos de las personas que interactúan, detecta las irregularidades y denuncian el posible fraude. Funcionará en las plataformas de Amazon y estará disponible para el público. 

CodeGuru es un analizador que revisa continuamente los códigos de las páginas. Utiliza su conocimiento de las revisiones de Amazon y de 10,000 proyectos de código abierto para detectar problemas y sugerir soluciones. La compañía asegura que durante el tiempo que ha estado funcionando ha mejorado en un 300% el desempeño de sus equipos. Ahora también estará disponible para el público. Es compatible con GitHub y CodeCommit de momento.

Kendra es una herramienta de Inteligencia Artificial orientada a los negocios y las empresas. Tiene una base de deep learning y machine learning que le permite adaptarse y combinar los conocimientos adquiridos, con aquellas novedades que se planteen en cada ambiente de trabajo. Ya es conocida por el público pero se sigue perfeccionando para ser cada vez más eficiente.

¿Qué significa Fintech y en qué pueden ayudarnos?

Fintech es un término que une otros dos, finance y technology. Una fintech es una startup que utilizando la tecnología ayuda al usuario creando servicios financieros fáciles de entender, de contratar y a buenos precios. Créditos online, cambios de divisas, banca digital entre otros servicios. Se trata de organizaciones con filosofía customer centric, que tienen gran acogida por los usuarios justamente por el gran conocimiento que tienen de sus necesidades.

El crecimiento de las fintech se debe básicamente a las ventajas que ofrece frente a las entidades financieras tradicionales. Su fortaleza está en la oferta de soluciones, más rápidas utilizando menos recursos. Procesos más simples, servicios más baratos y acceso inmediato desde cualquier dispositivo en cualquier lugar del mundo y momento del día. 

¿En qué áreas funcionan las Fintech? 

  • Neobanks y Challenger Banks, los primeros ofrecen una experiencia de 100% de banca. Trabajan con un banco tradicional que gestiona las operaciones, vigila el cumplimiento de las normas, procesos, controles y restricciones legales. Ofrecen mejor servicio, mejor precio o ambas cosas. Los segundos aspiran a ser una entidad bancaria, para manejar dinero físico y proponer nuevos productos, servicios y precios, propios o de terceros.
  • Compliance, ayudan a las empresas a seguir los procedimientos adecuados para identificar y clasificar los riesgos operativos y legales y establecer mecanismos de prevención, gestión, control y reacción frente a los mismos.
  • Crowdfunding, o micromecenazgo, en las que se financia un proyecto a cambio de una recompensa.
  • Crowdlending, que permite que numerosos inversores financien un proyecto, empresa o persona entre todos sin acudir a un banco tradicional.
  • Criptomonedas y monedas alternativas, son monedas virtuales, intangibles, que no se pueden retirar del banco, pero que se pueden utilizar como medio de pago, a través de la tecnología que las sustenta, el blockchain.
  • Mercado de divisas, entidades que eliminan los costes que supone la intermediación de un banco.
  • Distribución de Productos Financieros, son comparadores. Se dedican a recopilar toda la oferta que encuentran en Internet y presentan la información de forma simple para que el usuario entienda rápidamente los pros y contras. Hay comparadores financieros, de lending, de depósito o agregadores de oferta inmobiliaria.
  • Minicréditos o minipréstamos, los primeros permiten recibir un pequeño préstamo rápidamente, pensado para devolverlo a corto plazo. Los segundos son pequeñas cantidades que se prestan a una persona o empresa para que inicie un proyecto. Es fácil de conseguir si hay un aval.
  • Inversión, mediante plataformas que permiten invertir en negocios o empresas.
  • Equity Finance con el que se obtiene capital a través de la venta de acciones en una compañía. Comprende actividades diversas en alcance y escala. Se suele aplicar a empresas públicas cotizantes de bolsa, pero también sirve para financiar empresas privadas.
  • Pagos y cobros que se realizan a través de aplicaciones móviles.
  • Transferencias, plataformas que permiten transacciones de dinero con menores costos, por ejemplo,  Transferwise, Kantox y Flywire.
  • Financiación de particulares y empresas, empresas que asesoran y apoyan financieramente a pymes a través de webs especializadas. Suelen funcionar a través de apps y permiten que los usuarios entiendan con facilidad sus cuentas.
  • Asesoramiento financiero y en inversiones, también se conoce como Robo Advisor. Estas Fintech han automatizado los procesos de asesoramiento, con lo que se han reducido los costes y han eliminado las comisiones. 
  • Préstamos P2P, los que se realizan entre dos personas sin que medien entidades bancarias en las que la plataforma online hace de intermediario.
  • Factoring, la entidad financiera adelanta a la PYME fondos, a cambio de una comisión, antes de que realice sus cobros, para que tenga liquidez para realizar las operaciones cotidianas.
  • Financiación en venta, financian a los clientes para comprar un activo, permitiendo que no desembolse el dinero de una sola vez.
  • Desembolsos, plataformas a través de las que se domicilian pagos, incluyen domiciliación de facturas, plataformas de pago, como PayPal o pagos colectivos.
  • Gestión automatizada de procesos y digitalización​, empresas que dan soporte a entidades en su operativa habitual y servicios.
  • Trading, plataformas que ayudan al usuario a realizar una análisis técnico y aplicar una estrategia concreta en el mercado de valores.
  • InsurTech, compañías que aplican la tecnología al sector de los seguros.
  • Big data y modelos predictivos, empresas que recogen y gestionan datos, que utilizan la Inteligencia Artificial para crear servicios basándose en ellos.
  • Seguridad y privacidad

¿Qué objetivos se plantean las Fintech?

  1. Innovar en nuevos servicios financieros
  2. Mejorar los actuales, reduciendo los costes
  3. Utilizar la tecnología para ofrecer mejores soluciones
  4. Ofrecer servicios entre personas sin intermediarios
  5. Ampliar el acceso a los servicios financieros con mayor transparencia

Según un estudio de el Observatorio de la Digitalización Financiera Funcas-KPMG con datos de 2018, hay más de 15.000 Fintech en el mundo, principalmente en Estados Unidos y Reino Unido.  

En España hay más de 300 Fintech que facturan alrededor de 100 millones de euros y emplean a más de 3.500 personas, lo que nos sitúa en el sexto país en el ranking mundial. De estas empresas el 52% tienen un modelo de negocio B2B, un 34% B2C y un 4% C2B. 

¿Quiénes son los clientes de las Fintech?

La mayoría de usuarios de las Fintech son particulares, un 74%, seguidos de autónomos o pymes, con un 59% y entidades financieras con un 33%. El hecho de centrarse en un segmento muy concreto hace que se adapten rápidamente a cualquier necesidad que pueda surgir, puesto que conocen muy bien a sus clientes.

¿A qué sectores se enfocan las Fintech?

Un 28% se dedica al sector de los préstamos, un 19% a pagos y un 16% a inversión. Después tenemos un 8% que se enfoca a la estructura financiera, un 7% a divisas y gestoría. Empatados con un 5% las dedicadas a Equity Finance y a Finanzas personales, un 4% a distribución de productos financieros y por último un 1% se dedica a Neobanks y Challeger Banks.

¿Qué ventajas competitivas ofrecen frente al modelo tradicional?

Si se pregunta a las fintech, la respuesta a qué ventaja competitiva ofrecen frente a los modelos tradicionales, es decir, por qué les eligen los clientes a ellos y no a otros, un 89% contestan que por la calidad del servicio. Después se sitúa la atención al cliente, con un 59% y la reducción de costes el 44%. Un 37% cree que por los servicios añadidos y un 33% porque no hay otra oferta igual en el mercado. Finalmente la opción precio representa un 30% de las elecciones de los clientes. Es decir, los usuarios no las eligen por los precios, sino por otros factores.

¿Cómo se comercializan las Fintech en España?

Un 76% son de pago, un 21% ofrecen servicios gratuitos, y un 3% servicios Freemiun. Dentro del primer grupo los ingresos provienen básicamente de comisiones por servicios financieros, 45%, un 25% de los pagos por su uso y comisiones por transacciones. Un 20% recaba ingresos por subscripciones, un 15% por venta del producto y otro tanto por licencias y royalties. Un 10% por el margen de intereses, un 5% por publicidad y por venta de datos.

¿Qué retos se plantean las Fintech para el futuro?

Según el mismo estudio, lo que más preocupa a un 63% de las Fintech en el futuro es su estrategia de internacionalización. Un 75% de ellas tiene en sus planes operar en otro país europeo, Reino Unido o Estados Unidos.
Otra cuestión importante para el 54% de las fintech es la evolución de su regulación, que puede afectar negativamente a su crecimiento.
Al 42% de las Fintech les preocupa la financiación e inversión, ya que se está produciendo una ralentización en las inversiones y el seed capital, que para las primeras rondas de inversión oscila entre los miles de euros y los 5 millones de euros. Si se bonificaran estas inversiones los flujos de capital crearían valor para el inversor, la startup y la economía del país.

Fintech relevantes a nivel internacional

Adyen Servicio de pagos multicanal, ofrece servicios de pago a cerca de 3.500 empresas, incluidas Facebook, Uber y Airbnb.
AvantCredit Préstamos a consumidores Online, ofrece préstamos personales personalizados.
Betterment Inversión automatizada,,Robo Advisors, que simplifica el proceso de inversión.
CommonBond es un mercado de préstamos P2P a estudiantes que calcula mediante algoritmos el riesgo financiero.
Etoro es una red social de Inversión, la plataforma ofrece a sus usuarios acceso a los mercados globales, de esta manera pueden ver lo que hacen otros y copiar sus operaciones.

Fintech en España

Arboribus (Crowdlending)
Captio (Gestión de gastos de empresa)
Kantox (Cambio de divisas)
Exaccta Tax (Facturación y contabilidad automática para autónomos)
Zank (Financiación para particulares)
Lanzanos (Crowdfunding)
Bestaker (Equity Crowdfunding)
Fintonic (Agregadores financieros)
Finanzarel (Descuento de facturas y pagarés)

¿Hacia dónde van las Fintech?

Este sector recibe un buen porcentaje de la inversión que se hace en tecnología. Según datos de KPMG, en el primer semestre de este año ha ascendido hasta los 120.000 millones de dólares, incluyendo operaciones de capital riesgo, fusiones y adquisiciones. Si se compara con los 19.000 que se invirtieron en 2013, la diferencia es brutal, además de haberse prácticamente doblado el número de operaciones, 1.132 frente a las 2.196 con las que finalizó 2018.

Las Fintech tienen un panorama casi imparable de crecimiento si se tiene en cuenta los cambios que se producen constantemente y que los clientes requieren respuestas rápidas. Ya son muchos los que acceden a servicios financieros de forma digital y cada vez quieren productos más eficientes y pulidos.

Los mayores niveles de inversión e innovación se han producido en el segmento de los pagos. Aún hay 1.700 millones de personas en el mundo que no tienen cuenta en el banco, ni acceso a suministradores de efectivo móvil. Empresas como M-Pesa, en Kenya, o Prisma Medios de Pago en América Latina, permiten que esa exclusión financiera se vaya reduciendo. En Kenya, según datos del Banco Mundial y FSD Kenya, se ha cuatriplicado el número de personas que tienen cuenta bancaria desde 2006 a la actualidad.

Aumenta la preocupación de los usuarios por la privacidad y en concreto por el uso de la ciberseguridad en las finanzas. El estudio de KPMG asegura que además del sector pagos y la ciberseguridad, otros sectores como el regtech, cumplimiento normativo, la gestión patrimonial, wealtech y el sector inmobiliario, proptech, irán adquiriendo mayor importancia.

La ciberseguridad es uno de los aspectos que más dinamiza la tecnología financiera debido a los riesgos que afectan a la seguridad digital y la necesidad de medidas de protección contra los fraudes y robos de identidad. Su prevención se está convirtiendo en uno de los principales puntos de las estrategias de los servicios financieros.

Regtech es el mercado de la tecnología que se centra en el cumplimiento normativo. Ya en 2018 tuvo un gran crecimiento que ha continuado este año. La aprobación de las directivas GDPR, PSD2 y MiFID II, permitirá que el cumplimiento de las normas sea una prioridad en los inversores. El mayor impulsor en este ámbito es Europa, aunque también está aumentado el interés en Singapur y China.

Wealthtech es la tecnología financiera enfocada a mejorar la gestión de las inversiones y el patrimonio personal y profesional. Ha tenido un gran volumen de inversión en 2019, disparando la inversión en el último semestre y todo apunta a que se acerca a una etapa de madurez en la que se consolidará y alcanzará un punto de equilibrio. Aún así las posibilidades de acceder a la financiación son interesantes. En la primera mitad de 2019 se han cerrado 45 operaciones por un total de 2.200 millones de dólares, frente a las 88 operaciones por 1.800 millones del año anterior.

Proptech la tecnología destinada a modernizar la compraventa o alquiler de propiedades inmobiliarias. Su crecimiento puede ser infinito. El año pasado se realizaron 82 operaciones por un total de 1.400 millones de euros.  

Premio Nobel de Química 2019 para Stanley Whittingham, John Goodenoguh y Akira Yoshino

Hace más de cuarenta años, coincidiendo con la crisis petrolífera de 1970 empezaron a buscarse otras formas de energía alternativa que no dependieran de los combustibles fósiles. Estos tres científicos, Stanley Whittingham, John Goodenoguh y Akira Yoshino han sido galardonados con el Nobel de Química 2019, como inventores de la batería de ion-litio recargable, con la que funcionan muchos de los aparatos tecnológicos que utilizamos en la actualidad. Además, como anécdota, Whittingham se convierte a sus 97 años, en la persona más longeva en recibir el premio.

La evolución hasta la actual batería de ion-litio es la siguiente. Stanley Whittingham, profesor de la Universidad Estatal de Nueva York, creó en 1976 una primera batería funcional de litio, material rico en energía que descubrió cuando investigaba los superconductores, con sulfito de titanio. Introdujo el concepto de electrodos de inserción, fundamental para que el dispositivo fuera recargable. El problema es que si se sobrecargaba podía explotar. 

John Goodenoguh, físico alemán-estadounidense, consiguió en 1980, duplicar el potencial de esa batería de litio, de dos a cuatro voltios. Identificó y utilizó un material basado en el óxido de cobalto en vez de un sulfuro, lo que hacía más potente la batería. Las baterías de iones de litio se comercializaron enseguida, un año después, en las primeras videocámaras portátiles de Sony.

En 1985, Akira Yoshino terminó de mejorar el concepto, utilizando iones de litio que hicieron el proceso más seguro. La batería no estaba basada en reacciones químicas, sino en iones de litio que fluyen entre ánodos y cátodos. Además permitía que pudiera recargarse cientos de veces. Se convirtió en la primera batería de iones de litio viable para comercializar.

La Academia ha valorado su contribución asegurando que "Las baterías de iones de litio han revolucionado nuestras vidas desde que llegaron al mercado en 1991. Han sentado las bases de una sociedad inalámbrica, libre de combustibles fósiles, y son de gran beneficio para la humanidad”.  A pesar de tener impacto en el entorno, contribuyen a desarrollar tecnologías más limpias y permiten el almacenamiento con fuentes renovables, lo que conlleva una reducción en las emisiones de gases efecto invernadero.

 

Pequeños y grandes hitos en la historia de la informática y el software

El hombre siempre ha tenido desde siempre la necesidad de hacer más en menos tiempo. Desde que la humanidad inició su camino hasta hoy, no se ha dejado de automatizar todo aquello que era necesario repetir. Nos remontaremos en el tiempo para entender cómo ha sido esta evolución y hemos llegado al momento actual. Huelga decir que todo se ha acelerado extraordinariamente. En la antigüedad, de un descubrimiento significativo a otro podían pasar siglos. En las últimas décadas la evolución es constante, explosiva, casi exponencial.  El pasado es un escenario de miles de años, en el que han ocurrido hechos extraordinarios. Aquí no están todos los que son, pero sí son todos los que están. ¿Me acompañas en este viaje?

Antes de llegar al término software definamos que es, en lenguaje sencillo: son los programas que utilizamos todos. Los sistemas operativos, la inteligencia que controla nuestros ordenadores, móviles o lavadoras. Una definición más formal del software sería el soporte lógico, el código, de un sistema informático que permite realizar las tareas demandadas, como ordenar y procesar datos, por tanto hablamos de lógica y automatización, en procesos que se repiten continuamente.. 

Para iniciar este viaje nos remontamos hasta los primeros escritos de Herón de Alejandría, en los que aparece la palabra automatización, hacia el siglo I después de Cristo. Este sabio dejó extensos tratados sobre geometría y física aplicada. Así como inventos tan peculiares para la época, como la primera máquina expendedora o unas puertas automáticas. Aunque sus inventos encajan mejor en la categoría de hardware, no cabe duda de que son dos buenos ejemplos de automatización.

Damos un salto ahora hasta el siglo XII, el mecánico e inventor Al-Jazari construyó lo que se considera la primera máquina programable. Se trataba de una una especie de orquesta autómata, compuesta por figuras que mediante engranajes, ejes de levas y la energía de una pequeña noria de agua, permitía imitar los sonidos, haciendo música. Sin embargo, lo característico de este objeto era que se podía configurar para modificar el ritmo y la forma de tocar, era programable.

En el siglo XV, Güttemberg, orfebre alemán, también aportó su granito de arena con la imprenta de piezas móviles, que supuso un avance brutal para la época. Aunque se le atribuye su invención, los chinos en el siglo XI ya diseñaron un sistema de letras móviles con piezas de porcelana. Y se asegura que los romanos en el siglo V antes de Cristo ya imprimían inscripciones en objetos de barro. Aunque el ejemplo más antiguo de un objeto con inscripciones mediante sellos se remonta probablemente al siglo XV a. C, se trata del disco de Festo o Faístos.

En el mismo siglo, el extraordinario y clarividente Leonardo Da Vinci inventaba y experimentaba entre otras cosas, con la ingeniería y construía un autómata humanoide, un guerrero que podía reproducir muchos de los movimientos de un humano. 

Fue en el XVI, cuando Giovani Torriani, conocido como Juanelo Turriano, diseñó el Ingenio de Toledo, que permitía llevar agua desde el Tajo hasta el Alcázar, situado a más altitud que el cauce. Aprovechando la fuerza del propio río, un sistema de brazos de madera iba pasando el agua de uno a otro, salvando el desnivel. El sistema funcionó hasta principios del siglo XVII.

Damos un paso más. En 1642, Blaise Pascal, diseñó y construyó la primera calculadora mecánica de trabajo, que funcionaba a base de ruedas y engranajes, la Máquina aritmética o Pascalina. Con ella se podía sumar y restar dos números de forma directa y multiplicar y dividir por repetición.

En 1673 Gottfried Leibniz diseñó una máquina aritmética, con la que se podían realizar multiplicaciones moviendo una parte móvil hacia la izquierda. Era una versión mejorada de la de Pascal. El sistema era tan bueno que se ha utilizado hasta 1960 en las calculadoras mecánicas. Leibniz propuso un sistema binario para hacer cálculos de forma más sencilla, que al parecer ya se utilizaba en algunas sociedades ancestrales. Concretamente por los nativos de Mangareva, una pequeña isla de la Polinesia, que se adelantaron al genio en varios siglos. Ellos crearon sistemas binarios para llevar una contabilidad rudimentaria de los productos agrícolas y animales. Al parecer, estos habitantes polinesios, aún desarrollaron más sus matemáticas a partir de este sistema de cálculo.

En 1804, Joseph Marie Jacquard, tejedor y comerciante Frances, creó un telar programable basado en un sistema de tarjetas perforadas, que permitían el paso de las agujas y conseguía que se pudiera repetir el modelo tantas veces como se quisiera. Se considera la más antigua forma de programación.

Su trabajo inspiró a Charles Babbage, considerado padre de la moderna computación. Diseñó máquinas que ya podían realizar operaciones complejas. Estas máquinas de cálculo se hicieron muy populares a finales del siglo XIX. 

Ada Lovelace colaboró con Babbage, creó un algoritmo para calcular los números de Bernoulli. Se considera como el primer programa de ordenador para  la Máquina Analítica diseñada por Babbage, aunque nunca llegó a construirse y el programa no estuvo en funcionamiento. 

En 1847, George Boole da un paso más y utiliza el álgebra para expresar, manipular y simplificar problemas de lógica proposicional cuyos argumentos admiten dos estados, verdadero o falso, representados por el 1 y el 0. Por ello se le considera uno de los fundadores en el campo de las Ciencias de la Computación. Su contribución se conoce como el Álgebra de Boole y a los valores lógicos se les denomina booleanos.

En 1885 Herman Hollerith inventó un tabulador electromagnético, que funcionaba con tarjetas perforadas que resumían todo tipo de  información y tiempo, para más tarde usarse en contabilidad y el proceso de las nóminas. Es un hito que marcó el comienzo de la semi-automatización del procesamiento de datos de sistemas, en lo que se basó todo lo que se creó hasta un siglo después. Se le considera el primer informático, por tratar la información de forma automática. No en vano su empresa acabó formando parte de la archifamosa IBM.

Charles Xavier Thomas de Colmar inventó el aritmómetro en 1887. Era una versión mejorada de las anteriores, ya que tenía capacidad de realizar sumas, restas, multiplicaciones y divisiones que no tuvieran resultados de más de 12 cifras. En un principio no podía programarse para cálculos en sucesión. Tampoco tenía memoria para conservar un resultado parcial, aunque mejoras posteriores fueron solucionando estas cuestiones, acercándolo a lo que entendemos en la actualidad por una calculadora. Fue un éxito ya que se convirtió en la primera calculadora comercial.

Ya en el siglo XX, Howard Aiken desarrolló un dispositivo electromecánico de computación, inspirado en la Máquina Diferencial de Babbage, basado en tarjetas perforadas y una unidad central de cálculo que le permitía resolver ecuaciones diferenciales. Se llamó Automatic Sequence Controlled Calculator (ASCC) y más tarde Harvard Mark I. Recibió financiación de IBM, y con la ayuda de Grace Hopper se terminó de construir en 1944. Como se puede ver, el software ocupa un papel cada vez más relevante.

Claude Elwood Shannon sentó las bases de la teoría del diseño del ordenador digital y el circuito digital en 1937, así como uno de los ladrillos básicos sobre los que se ha desarrollado el software y el mundo digital. Desarrolló el método para expresar la información de forma cuantitativa cuya magnitud principal es el bit. Trabajando con Vannevar Bush en el analizador diferencial, ordenador analógico, se le ocurrió aplicar al álgebra de Boole el sistema binario, para simplificar el proceso. Demostró cómo usar interruptores eléctricos con dos opciones, apagado 0, encendido 1, para resolver operaciones aritmético-lógicas utilizando el álgebra de Boole. Con esto consiguió pasar del procesamiento analógico al digital y sentar las bases de la moderna informática. 

No acabó aquí su contribución ya que en su paso por los Laboratorios Bell, compartió conocimientos con William Shockley, inventor del transistor, precursor del chip, o George Stibitz, que creó los primeros ordenadores basados en relés. También contribuyó a desarrollar el campo del criptoanálisis. En aquellos años los Bell Laboratories eran una de las principales fuentes del conocimiento mundial. Su contribución al desarrollo de la industria del software es inmensa, y al de la tecnología digital, en general.

Alan Turing definió en 1937 la conocida como máquina de Turing, una máquina calculadora de capacidad infinita, que funcionaba con unas instrucciones lógicas básicas, lo que podría considerarse el concepto moderno de algoritmo. Un sistema automático con reglas muy simples que podían realizar cualquier operación matemática, expresada en un lenguaje formal. Las anteriores a la máquina de Turing no eran de propósito general, estaban ideadas para cumplir una sola función con un conjunto de variables dadas. También desarrolló un test para comprobar si una máquina era capaz de pensar como un humano, que aún se utiliza en la actualidad.

Hablemos de la International Business Machine. IBM construyó su imperio, sobre todo, alrededor de la tabuladora de Hollerit que se menciona anteriormente. Durante más de 30 años desarrollaron el producto hasta un nivel de sofisticación que solo pudo superarse con la llegada de los ordenadores digitales. Esa fue la base del enorme crecimiento e influencia de IBM, hasta que Thomas John Watson Jr. se pone al frente, sucediendo a su padre. Tras su llegada transforma la compañía, hace de los ordenadores su línea de negocio principal, reemplazando las tarjetas perforadas, por dispositivos de almacenamiento magnético. Entramos en la era de la informática moderna.

En los años 40, John Von Neumann desarrolla una arquitectura de computadoras, pensando en la reconfiguración permanente de los primeros ordenadores ENIAC, que ha perdurado hasta nuestros días. Esta es otro de los pilares sobre los que se asienta la moderna informática. En ella los programas se almacenan en una única memoria que permite que los comandos se ejecuten de la misma manera que los datos. Cada celda de la máquina tiene una dirección, que es un número único. Los comandos y los datos tienen distintos modos de uso, pero la estructura no se representa en memoria de manera codificada. Los programas se ejecutan de forma secuencial, y salvo otra orden, comienzan con la primera instrucción. Los controles de transferencia condicional, el IF famoso, los bloques repetitivos, los FOR o WHILE, forman parte de cualquier lenguaje de programación actual.

Grace Murray Hopper participa en el proyecto del ordenador Mark I en 1944. Y en 1957 crea el primer compilador de lenguajes de ordenador, que se llamó Flow-Matic. En la actualidad, los compiladores siguen siendo una herramienta esencial en la programación con muchos lenguajes. También tuvo un papel importante en el desarrollo del lenguaje COBOL.

William Shockley recibió junto a John Bardeen y Walter Houser Brattain el Premio Nobel de Física en 1956 por sus investigaciones y por la construcción de semiconductores que sustituirían a los tubos de vacío. Estos semiconductores, utilizados inicialmente en los transistores y más tarde en dispositivos como los circuitos integrados, permitieron que los ordenadores pasaran de centenares o miles de operaciones por segundo, a los miles de millones de operaciones de los dispositivos actuales. Gracias a ellos se miniaturizaron circuitos de radio, televisión y equipos de ordenadores, lo que contribuyó al desarrollo de la electrónica y la informática.

Pongamos en contexto las implicaciones del cambio que se crea a partir del invento de Shockley. La potencia de ordenador se mide en FLOPS. Un FLOP es una operación de coma flotante por segundo. El ordenador más potente de la actualidad, el Summit de IBM, puede alcanzar los 122 petaFLOPS, esto es 122.000 billones de operaciones por segundo. Para hacernos una idea, un ordenador de válvulas de los años 50 apenas alcanzaba los miles de FLOPS, en algunos casos incluso cientos. Por hacer una comparativa, el coste por teraFLOP hoy es de unos pocos dólares, menos de 30, para un ordenador no excesivamente sofisticado. En 1961, basado en la potencia de cálculo y coste de un IBM 7030, hubiera costado la friolera de 156,8 billones de dólares. 156 billones frente a 30 ¿Te haces una idea de porqué los ordenadores hacen cada vez cosas más complejas? El software, con esa potencia de procesamiento puede conseguir cosas inimaginables hace un par de décadas.

Volvamos a 1957 cuando IBM anunció oficialmente el lenguaje de programación Fortran. Desarrollado por John Backus, con un brillante equipo de ingenieros y científicos, será el precursor de los modernos lenguajes de programación. Antes de Fortran casi todo era código ensamblador. Es a finales de los 50 cuando confluyen muchos de los elementos, de hardware y software, que hemos heredado en la informática actual.

El término software parece que se lo debemos a John W. Tukey. Aparece en 1958, en un artículo en el American Mathematical Monthly. Tukey fue un brillante matemático, creador de conocidos algoritmos como el de la Transformada Rápida de Fourier, FFT en inglés.

También sobre 1958, aparece el lenguaje de programación ALGOL. Es uno de los vario lenguajes que surgieron del Reporte Preliminar de la IAL celebrada en Zurich aquel mismo año. A partir de este informe y del lenguaje se desarrollarán en años venideros Pascal, C, C++ o Java, entre otros.

En un final de década portentoso, COBOL llega en 1958. Es el primer lenguaje que tiene la vocación de correr en diferentes plataformas. Fue diseñado por un consorcio de empresas informáticas y el Departamento de Defensa de Estados Unidos. Se inspira en los lenguajes Flow-Matic de Grace Hopper y el IBM COMTRAM, desarrollado por Bob Berner. En la actualidad aún se utiliza y forma parte de la informática de bancos, aseguradoras y grandes corporaciones.

Joseph Licklider, fue un visionario que en 1962 describió la Galactic Network, básandose en un trabajo previo de Leonard Kleinrock. Describió una red de ordenadores interconectados que permitiría el acceso a cualquier persona desde cualquier lugar del mundo. Lo que entraba prácticamente en el terreno de la ciencia ficción en aquel momento, hoy es Internet. Trabajó en ARPA, donde se establecieron las bases de ARPANET el germen de Internet, y también para BBN, empresa que suministró los primeros ordenadores conectados a ella.

BASIC surge en 1964, creado por John Kemeny y Kurtz Thomas. Desde entonces se desarrollaron centenares de variantes para todas las plataformas informática. Hoy está en desuso, pero Visual Basic sigue siendo el corazón de muchas aplicaciones.

Niklaus Wirth crea Pascal en 1968, con el objetivo de contar con un buen lenguaje de programación orientado a la enseñanza. Pascal era un compendio de las mejores características de los lenguajes usados en aquella época, se basa en COBOL, FORTRAN y ALGOL. Es el puente entre los antiguos lenguajes y los de tercera generación.

A partir de los años 70 los lenguajes de tercera generación aparecen con fuerza: C, C++, Smaltalk, Delphi, Java o PHP entre otros. Algunos lenguajes incorporan características de la cuarta generación, entre otros Python o Ruby. No dejes que las generaciones te engañen, aunque cada una beben de las anteriores, son una evolución, pueden llevar con nosotros mucho tiempo. Por ejemplo entre los lenguajes de cuarta generación tendríamos todas la variantes tipo Dbase: Dataflex, Xbase, Clipper o Foxpro, entre otros. Son todos lenguajes que surgen en los 80. ABAP, R o PL/SQL forman parte de este grupo de lenguajes.

El lenguaje C, uno de los más icónicos de la historia de la informática, fue creado por Dennis Ritchie y Ken Thompson entre 1969 y 1972. Se desarrolla como herramienta para la creación de sistemas operativos, pensando en UNIX, que será concebido por el mismo equipo en paralelo. Tanto en el desarrollo del lenguaje como del sistema operativo también participaron Brian Kernighan y Douglas Mcllroy.

Y en este punto entra en escena Vinton Cerf, que lideró el desarrollo del protocolo TCP/IP e Internet. TCP/IP aparece en 1972 de la mano de Cerf y Robert Kahn. Pese al ingente trabajo previo de muchos otros, desde los 60, se les considera los padres de Internet.

En 1973, la red global se hace realidad. El University College of London y la Royal Radar Establishment en Noruega se conectan a ARPANET

Se empieza a usar el término Internet, que aparecerá en diciembre de 1974 en el RFC 675: Internet Transmission Control Program. En el mismo año aparece el primer Internet Service Provider, Telenet.

También en 1974 se publica SEQUEL: A Structured English Query Language, que se considera la puesta de largo de lo que sería SQL, el lenguaje de base de datos más extendido de la actualidad. Considerado en buena medida un estándar, debemos agradecer su existencia a Donald Chamberlain y Raymond F. Boyce, que comenzaron a desarrollarlo para los sistemas de la empresa a principios de los 70. Hijas de SQL son bases de datos tan conocidas como DB2, Oracle, MS Sql Server, MySql o PostgreSql, entre muchas otras.

Dan Bricklin y Bob Frankston, desarrollan la hoja de cálculo VisiCalc en 1979. Aunque hay conceptos previos, fue la primera implementación eficiente de una herramienta imprescindible hoy en día. Marcas como Apple probablemente no habrían crecido como lo hicieron, si VisiCalc no tuviera una versión para Apple II. Se comenta que un 25% de las ventas de Apple, de un ordenador de 2.000$, se debían a VisiCalc, un software de 100$. El competidor Multiplan apareció en 1982, pero quien les dejó fuera del mercado fue Lotus 1-2-3, probablemente el software de hoja de cálculo más popular, hasta la llegada de Excel. 

En 1979, Bjarne Stroustup, que trabaja también en el entonces ATT&Bell Labs, empieza a desarrollar en un lenguaje C con clases, tomando elementos del lenguaje Simula. En 1983 nace oficialmente C++, el estándar de programación de facto en UNIX y todos sus derivados Open Source, incluyendo las decenas de variantes de Linux.

En 1982 se publica el RFC del protocolo SMTP sobre el que se basa el servicio de email. Aunque el primer programa de email lo crea en 1971 Ray Tomlinson en ARPANET, no será hasta la llegada del SMTP que el correo electrónico empiece a desarrollarse en serio.

En 1983, a partir de los desarrollos de Cerf, Kahn y muchos otros, ARPANET, la precursora de Internet, implanta el protocolo TCP/IP, como el estándar del sistema.

En 1983 la revista BYTE dice de Wordstar “sin duda el programa de procesamiento de texto más conocido y probablemente el más usado en PC”. ¿Te acuerdas de él? Pues Wordstar fue ideado por John Robbins Barnaby en 1979, sobre desarrollos previos como WordMaster.

Mitch Kapor, empleado de Visicorp, creadores de VisiCalc, lanza en 1983 el software de hoja de cálculo Lotus 1-2-3. Cofundó la Electronics Frontier Foundation en 1990 y participó en el lanzamiento de la Mozilla Foundation en 2003.

Durante 1987 John McAfee fundará la más importante empresa de antivirus en aquel momento. El papel del antivirus McAfee en los años sucesivos es otro hito muy importante de esta pequeña historia. La guerra de virus y antivirus se mantiene hasta nuestros días, siendo los sistemas de Microsoft primero y los de Android después, los favoritos de los piratas informáticos. Apple va salvando la cara, en general.

Con todo lo sucedido en las tres décadas anteriores, parece que en la vertiginosa década de los ochenta no hubiera pasado nada sustancial, y así es, al menos en términos de lenguajes o técnicas relevantes. Pero no debemos olvidar que en estos años está desarrollándose la informática personal, sobre la que se asentará el mundo digital.

Por ejemplo, Tim Berners-Lee publica en 1989 su propuesta sobre el protocolo de transmisión de internet, que estuvo desarrollando los años anteriores. Crea URL, HTTP, la World Wide Web, HTML y el primer navegador. En un ratito como quien dice, ha transformado el mundo. Probablemente sea la persona que ha creado las piezas informáticas más importantes de la historia.

La primera versión de Linux vio la luz en marzo de 1991. Fue y es, el trabajo de otro visionario de la informática y el software: Linus Torvalds. Además de crear uno de los sistemas operativos cruciales sobre el que descansa todo el ecosistema digital, es uno de los precursores e impulsores del movimiento Open Source. Sobre variantes de Linux corren la mayor parte de servidores y sistemas que gestionan Internet, las comunicaciones y hasta los teléfonos móviles. Android es otra variante que utiliza el kernel de Linux.

Guido van Rossum es el creador de Python, otro lenguaje icónico en la tecnosfera actual. Publicó la versión 0.9.0 en 1991. La versión 1.0 vio la luz en 1994. En los últimos años ha ganado una enorme tracción y es cada vez más popular por su flexibilidad.

Y como también hay que divertirse, hay que destacar la llegada de Doom, uno de los primeros juegos FPS, first-person shooter, que también representó un hito en la historia informática. Los juegos ya no fueron iguales a partir de 1993, cuando se lanzó Doom al mercado. El director del proyecto fue John Carmack.

Yukihiro Matsumoto crea en 1993 Ruby. Y lo presenta públicamente en 1995. Ruby ganó la atención de los profesionales con la aparición de Ruby on Rails, conocido como RoR. Fue desarrollado por David Heinemeier Hansson, durante su trabajo en el proyecto Basecamp, en 37signals. La aparición de Basecamp y otros productos de la compañía supusieron un revulsivo en el sector. La primera versión de RoR se liberó en 2004.

Marc Andreesen, creó Netscape en 1994. Este navegador es el sucesor de Mosaic, una versión previa que estuvo poco tiempo en el mercado. Y a partir de ellos surgiría el actual Firefox. Responsable también de la llegada del lenguaje de programación JavaScript, el más popular de la actualidad y de piezas críticas para la programación de Internet como las CSS.

El lenguaje PHP apareció el mismo año. De ser poco más que un experimento de Rasmus Lerdorf, su creador, se ha convertido en el lenguaje que gestiona la mayor parte de los sitios de Internet. PHP es utilizado en cerca del 80% de los proyectos, a mucha distancia de Java o los lenguajes de Microsoft.

La primera versión pública de Java se conoció también en 1994. Fue desarrollado en Sun Microsystems por un equipo liderado por James Gosling. Java es el lenguaje de los sitios de los proyectos grandes, aunque su uso no está tan extendido. En España Hacienda y las instituciones públicas son muy de Java. Un auténtico peñazo, con perdón, por la forma en que lo implantan.

En 1995 Brendan Eich, incorporación que se hizo en Netscape, desarrolla lo que primero se llamó Mocha, después LiveScript y más tarde JavaScript. Es curioso el fenómeno de este lenguaje que de ser considerado como menor, con demasiadas debilidades, ha evolucionado en otros mucho más sólidos y potentes, que se han convertido en el corazón de las aplicaciones del lado del cliente.

Y saltamos hasta 2011. No es que en años anteriores no haya habido novedades, C# o Swift por ejemplo, son muy importantes en sus correspondientes ecosistemas. Pero en un entorno dominado por la web, son los lenguajes que tienen que ver con ella los que tienen más posibilidades y la mayoría son interpretados, no compilados. ¿Por qué hasta 2011? Por Dart. El lenguaje multiplataforma y multidispositivo de Google. Tienen mucha papeletas para estar entre los triunfadores en los próximos años. Y en esto he acertado un par de veces.

Desde la llegada del nuevo siglo, el software y los lenguajes de programación no han dejado de evolucionar. Pero probablemente nada ha avanzado tanto como los entornos de programación, los IDEs y los frameworks. La auténtica revolución a lo largo del siglo XXI se está produciendo ahí. Veremos cosas muy interesantes, pero si este repaso nos deja alguna lección es que algunos productos por fantásticos que nos parezcan no llegan a popularizarse y, en otros casos, debe pasar bastante tiempo para que ganen la atención de los profesionales. 

Veremos lo que nos deparan la IoT, el Big Data y la AI, los nuevos dispositivos que llegarán y como interactuaremos con ellos. Será necesario crear toneladas de software. La próxima década promete.

Artículo escrito conjuntamente por Jose Valle y Pilar Everss

Imagen: Kolossos

¿Qué riesgos tiene la Inteligencia Artificial?

La Inteligencia Artificial está presente en todos los ámbitos de la sociedad. Y tiene su lado malo. La Asociación para el Avance de la Inteligencia Artificial, organismo creado en 1979, para promocionar el uso responsable de la IA, alerta de sus posibles riesgos e invita a prevenirlos. Elon Musk también ha asegurado que está creciendo a un ritmo casi exponencial y ha prevenido de la posibilidad de que ocurra algo peligroso en los próximos cinco o diez años.

Invasión de la intimidad. Es un hecho que dejamos huella, datos, continuamente, en nuestro paso por Internet. Eso permite llegar al usuario, de una forma de momento no excesivamente intrusiva, pero que puede alcanzar niveles opresivos, haciendo que se clasifique a los ciudadanos y que la información obtenida se use contra ellos.

Las Redes Sociales son un lugar en el que recabar mucha información sobre una persona, lo que permite personalizar la publicidad, permitiendo gran eficacia en las campañas de marketing, pero también puede utilizarse de forma más perniciosa, manipulando a las personas a través de los datos y los algoritmos.

Fallos en la programación. ¿Qué ocurre si las órdenes que se transmiten a la máquina se interpretan de forma equivocada? En algunos casos puede ser un problema de cierta entidad. Y el hecho de que esta tecnología esté presente en la industria automovilística, sanitaria y armamentística puede hacerlos más graves aún.

Además, los algoritmos de la Inteligencia Artificial no son invulnerables, y dependiendo de la complejidad y de la dependencia de los sistemas tengan de ella, un ciberataque puede provocar un desastre. Por ello hay un gran interés en desarrollar los mecanismos que permitan detectar y parar estos ataques. 

El gran miedo de muchas personas es pensar que la Inteligencia Artificial llegue a ser una entidad propia. Tan inteligente o más que el hombre y dotada además de la posibilidad de adelantarse, por ejemplo, a que alguien quiera desconectar un ordenador central en un arreabato de iniciativa. Podría incluso acabar con la especie humana, como decía Stephen Hawking que la tecnología evoluciona más rápido que el hombre, y eso lo convierte en un ser vulnerable.

Sin embargo, siendo realistas, nos ayuda más que nos perjudica, aunque las  instituciones trabajan para conseguir una IA segura. 

Una de las primeras es el Machine Intelligence Research Institute, MIRI, que vela por la seguridad de los programas de investigación de IA, como también lo hace Open AI, empresa creada por Elon Musk para el mismo fin.

El Instituto del Futuro de la Humanidad de Oxford se dedica a estudiar y diseñar normas, políticas e instituciones que garanticen un mejor desarrollo de la IA. Tiene varias publicaciones que alertan sobre los peligros del mal uso de la Inteligencia Artificial.

La Comisión Europea trabaja en un borrador sobre las Directrices éticas de la IA, que puede estar acabado en unos meses. Está asesorada por civiles, universidades y empresas ya que pretende ser mucho más que una enumeración de principios. Se trata de ver cómo se abordan desde varios ámbitos los desafios y oportunidades que ofrece la IA.

Se trata de que la IA sea confiable porque sea beneficiosa para los seres humanos. Se entenderá que es así si tiene un fin ético y cumple con legislación vigente, y respeta los principios y valores esenciales. La tecnología tiene que ser fiable y sólida. 

En definitiva se trata de que la Inteligencia Artificial se diseñe para mejorar el bienestar individual y colectivo, proteja la dignidad de las personas, su privacidad y libertad. Que debe respetar su autonomía, garantizar la no discriminación de colectivos minoritarios y debe ser tecnológicamente transparente para tener la confianza de los ciudadanos. 

Imagen: Franck V.