Vehículos eléctricos: Cómo
funciona el piloto automático.
¿Pondrías tu vida exclusivamente en manos de la
tecnología?
1º Parte:
Existen
varios criterios para catalogar la conducción autónoma en cuanto a los
diferentes niveles. El criterio estipulado por la NHTSA (Administración
Nacional de Seguridad del Tráfico en las Carreteras. USA) establece que:
El nivel 0
es el que requiere de un humano para absolutamente todo.
El nivel 1
implica que los controles individuales sean automáticos.
El nivel 2
de conducción autónoma es un requisito que 'dos funciones sean controladas por
el vehículo al mismo tiempo'. Por ejemplo, control de crucero y mantenimiento
en el carril.
El nivel 3
de conducción autónoma, el coche se controla por sí solo y es capaz de
gestionar de forma autónoma todas las funciones relacionadas con la conducción.
El nivel 4
de conducción autónoma, es la conducción autónoma completa, en tanto que el
vehículo sí se puede conducir por sí solo sin ningún tipo de asistencia humana.
Un vehículo
autónomo, según el nivel, es capaz de
detectar su entorno y navegar sin intervención humana. Para realizar esta
tarea, cada vehículo está equipado con una unidad GPS, un sistema de navegación
inercial y una gama de sensores que incluyen telémetros láser, radar y video.
Un sistema
de navegación inercial, o INS (Inertial Navigation System), es un sistema de
ayuda a la navegación que usa un computador, sensores de movimiento
(acelerómetros) y sensores de rotación giroscópicos para calcular continuamente
mediante estimación la posición, orientación y velocidad (dirección y rapidez
de movimiento) de un objeto en movimiento sin necesidad de referencias
externas. Es usado en vehículos como barcos, aeronaves, submarinos, misiles y
naves espaciales.
El vehículo
utiliza información de posición del GPS y del sistema de navegación inercial
para localizarse y los datos de los sensores para afinar su estimación de
posición, así como para construir una imagen tridimensional de su entorno.
Los datos de
cada sensor se filtran para eliminar el ruido y fusionan con otras fuentes de
datos para aumentar la imagen original. La forma en que el vehículo utiliza
posteriormente estos datos para tomar decisiones de navegación está determinada
por su sistema de control.
La mayoría
de los sistemas de control de vehículos autónomos implementan una arquitectura
deliberativa, es decir, que son capaces de tomar decisiones inteligentes al
1) mantener un mapa interno de su mundo y
2) usar ese mapa para encontrar un camino
óptimo hacia su destino que evite obstáculos. (por ejemplo, estructuras de
carreteras, peatones y otros vehículos) de un conjunto de posibles caminos. Una
vez que el vehículo determina el mejor camino a seguir, la decisión se divide
en comandos, que se envían a los actuadores del vehículo. Estos actuadores
controlan la dirección, el frenado y el acelerador del vehículo.
Este proceso
de localización, mapeo, evitación de obstáculos y planificación de rutas se
repite varias veces por segundo en potentes procesadores integrados hasta que
el vehículo llega a su destino.
A
continuación veremos los componentes técnicos de cada proceso: mapeo y
localización, evitación de obstáculos y planificación de caminos. Aunque los
fabricantes de automóviles utilizan diferentes conjuntos de sensores y
algoritmos según su costo y sus
limitaciones operativas, los procesos en todos los vehículos son similares.
Antes de
tomar cualquier decisión de navegación, el vehículo debe construir un mapa de
su entorno y ubicarse con precisión dentro de ese mapa. Los sensores más
utilizados para la construcción de mapas son los telémetros láser y las cámaras
de video. Un telémetro láser escanea el entorno utilizando franjas de rayos
láser y calcula la distancia a los objetos cercanos midiendo el tiempo que
tarda cada rayo láser en viajar hasta el objeto y regresar. Una ventaja de los
telémetros láser es que se puede construir un mapa tridimensional. Debido a que
los rayos láser divergen a medida que viajan por el espacio, es difícil obtener
lecturas de distancia precisas a más de 100 m de distancia. El vehículo filtra
y discretiza los datos recopilados de cada sensor y, a menudo, agrega la
información para crear un mapa completo, que luego utiliza para la planificación de rutas. Un
ejemplo del mapa interno de un automóvil
recopila casi 1 GB de datos por segundo.
Para que el vehículo
sepa dónde está en relación con otros objetos en el mapa, debe usar su GPS,
unidad de navegación inercial y sensores para localizarse con precisión.
Las
estimaciones de GPS pueden diferir en muchos metros debido a retrasos en la
señal causados por cambios en la atmósfera y reflejos en los edificios y el
terreno circundante, y las unidades de navegación inercial acumulan errores de
posición con el tiempo. Por lo tanto, los algoritmos de localización a menudo
incorporarán datos de mapas o sensores recopilados previamente en la misma
ubicación para reducir la incertidumbre. A medida que el vehículo se mueve, se
utilizan nueva información de posición y datos de sensores para actualizar el
mapa interno del vehículo.
Evitando los obstáculos
El mapa interno
de un vehículo incluye la ubicación actual y prevista de todos los obstáculos
estáticos (por ejemplo, edificios, semáforos, señales de alto) y en movimiento
(por ejemplo, otros vehículos y peatones) en su vecindad. Los obstáculos se
clasifican en función de qué tan bien coincidan con una biblioteca de descripciones
de forma y movimiento predeterminados. El vehículo utiliza un modelo
probabilístico para rastrear la trayectoria futura predicha de los objetos en
movimiento en función de su forma y trayectoria anterior. Por ejemplo, si un
objeto de dos ruedas viaja a 64 Kph frente a 16 kph, lo más probable es que sea
una motocicleta y no una bicicleta, y el vehículo lo clasificará como tal. Este
proceso permite que el vehículo tome decisiones más inteligentes al acercarse a
cruces peatonales o intersecciones concurridas. Las ubicaciones previas,
actuales y futuras previstas de todos los obstáculos en las proximidades del
vehículo se incorporan a su mapa interno, que el vehículo utiliza para
planificar su camino.
Planificación de la ruta
El objetivo
es utilizar la información capturada en el mapa del vehículo para dirigirlo de
manera segura a su destino, evitando obstáculos y siguiendo la carretera. Aunque los algoritmos de
planificación de los fabricantes serán diferentes según sus objetivos de
navegación y los sensores utilizados, a continuación se describe un algoritmo
de planificación de ruta general que se ha utilizado en vehículos terrestres
militares.
Este
algoritmo determina un plan aproximado de largo alcance que debe seguir el
vehículo mientras afina continuamente un plan de corto alcance (por ejemplo,
cambiar de carril, avanzar 10 m, girar a la derecha). Comienza a partir de un
conjunto de caminos de corto alcance que el vehículo sería capaz de completar
dinámicamente dada su velocidad, dirección y posición angular, y elimina todos
aquellos que cruzarían un obstáculo o se acercarían demasiado a la trayectoria
prevista de uno en movimiento. Por
ejemplo, un vehículo que viaja a 80 Kph no podría hacer con seguridad un giro a
la derecha 5 metros más adelante, por lo tanto, ese camino se eliminaría del
conjunto factible. Las rutas restantes se evalúan en función de la seguridad,
la velocidad y los requisitos de tiempo. Una vez que se ha identificado la
mejor ruta, se transmite un conjunto de comandos de aceleración, freno y
dirección a los procesadores y actuadores a bordo del vehículo. En total, este
proceso tarda una media de 50 ms, aunque puede ser más largo o más corto según
la cantidad de datos recopilados, la potencia de procesamiento disponible y la
complejidad del algoritmo de planificación de rutas.
El camino por delante
Los
fabricantes de automóviles han logrado avances significativos en los últimos
tiempos para hacer realidad los automóviles autónomos; sin embargo, todavía
quedan una serie de barreras tecnológicas que los fabricantes deben superar
antes de que los vehículos autónomos sean lo suficientemente seguros para el
uso en la carretera. El GPS puede no ser confiable, los sistemas de visión por
computadora tienen limitaciones para comprender las escenas de la carretera y las condiciones climáticas variables (por
ejemplo: lluvia o niebla de diferente intensidad) pueden afectar negativamente
la capacidad de los procesadores a bordo para identificar o rastrear
adecuadamente los objetos en movimiento. Los vehículos autónomos también tienen
que demostrar la misma capacidad que los conductores humanos para comprender y
navegar en entornos no estructurados, como zonas de construcción de rutas y
áreas de accidentes.
Sin embargo,
estas barreras no son insuperables. La cantidad de datos de carreteras y
tráfico disponibles para estos vehículos está aumentando, los sensores de tecnología
más avanzadas están capturando más datos y los algoritmos para interpretar las
escenas de la carretera están evolucionando.
2º Parte:
La red Internet vincula la información que
proviene del sistema GPS con los vehículos autónomos. El sistema de
posicionamiento no es perfecto y la red de redes es vulnerable a ataques que
bloquean sus servidores.
La red de redes
Internet es
una gran red de servidores (computadoras) a nivel mundial, que pueden
intercambiar información entre ellos al estar vinculados entre si como una red
telaraña.
Se pueden
comunicar porque están unidos a través de conexiones telefónicas, cable, ondas
u otro tipo de tecnología y gracias a que utilizan un lenguaje o protocolo
común el TCP/IP, que son normas que nos dicen
como tienen que viajar los datos por la red. Todos los ordenadores conectados
en internet tienen que utilizar el mismo protocolo o normas para comunicarse
entre ellos, en caso contrario no podrían comunicarse e intercambiar
información. Para conectarnos a la red se hace por medio de un ISP (proveedor de
acceso a internet), es decir, empresas que nos facilitan la conexión. El ISP o proveedor lo primero
que hace es asignarnos un número único a nuestra computadora dentro de la red
para que cuando esta se conecta a la red esté identificada. Este número será
único en toda la red y se llama el IP de nuestra computadora.
Estos número
IP se llaman "direcciones IP". Gracias a ese IP único que tiene cada computadora
conectada a la red de internet se pueden identificar y comunicar las computadoras
unos con otros sin confusiones ni errores.
Los datos
que queremos enviar por la red, antes de enviarlos debemos codificarlos
(convertirlos) de forma que sean datos que puedan viajar por los cables o por las
ondas.
Internet, no
es una red centralizada ni está regida por un solo organismo. Su estructura es
semejante a una tela de araña en la cual unas redes se conectan con otras.
El
procedimiento empleado para intercambiar información en Internet sigue el modelo
cliente-servidor. Los servidores son computadoras donde se almacenan datos.
El cliente
es la computadora que realiza la petición al servidor para que éste le muestre
alguno de los recursos almacenados.
La
información se transmite en pequeños tramos llamados "paquetes". Lo
importante es la reconstrucción en el destino del mensaje emitido, no el camino
seguido por los paquetes que lo componen. Si se destruye un nodo de la red, los
paquetes encontrarán caminos alternativos. Este procedimiento no es el más
eficiente, pero resiste las averías de una parte de la red.
Internet
necesita unos 100 millones de servidores repartidos en centros de datos; unos
300 cables de fibra óptica submarinos (entre activos y en construcción, unos
900.000 kilómetros) y antenas y routers para hacer llegar paquetes de
información, finalmente, a los múltiples dispositivos digitales.
Cuando nos
conectamos a Internet, en realidad, nos estamos conectando a grandes centros de
datos lejanos de esa red que vincula los múltiples servidores con una fracción
de la información que posteriormente se
re-configura en destino.
Sistema de posicionamiento global
GPS (Global
Positioning System) es la abreviatura de Global Positioning System. Es un sistema
de radionavegación basado en satélites desarrollado por el Departamento de
Defensa de Estados Unidos de América que permite a cualquier usuario saber su
localización, velocidad y altura, las 24 horas del día, bajo cualquier
condición atmosférica y en cualquier punto del globo terrestre.
El sistema
de posicionamiento global está compuesto por tres componentes: el espacial, el
de control y el de usuario. El componente espacial está constituido por una
constelación de satélites en órbita terrestre aproximadamente a 20000 km,
distribuidos en 6 planos orbitales. Estos planos están separados entre sí por
aproximadamente 60º en longitud y tienen inclinaciones próximas a los 55º en
relación al plano ecuatorial terrestre. Fue concebido de manera que existan como
mínimo 4 satélites visibles por encima del horizonte en cualquier punto de la
superficie y en cualquier altura. El componente de control está constituido por
5 estaciones de rastreo distribuidas a lo largo del globo y una estación de
control principal (MCS- Master Control Station).
El
componente del usuario incluye todos aquellos que usan un receptor para recibir y convertir la señal GPS en
posición, velocidad y tiempo. Incluye además todos los elementos necesarios en
este proceso, como las antenas y el software de procesamiento.
Los
fundamentos básicos de funcionamiento del GPS se basan necesariamente en al menos tres satélites de la constelación,
para poder realizar una triangulación de señales y conocer con mayor exactitud
la posición. Sabiendo la distancia que nos separa de 3 puntos podemos
determinar nuestra posición relativa a esos mismos 3 puntos a través de la
intersección de 3 circunferencias cuyos radios son las distancias medidas entre
el receptor y los satélites.
La
tecnología GPS ya se encuentra en muchos dispositivos portátiles que utilizamos
en nuestra vida diaria. Existen muchos modelos de teléfonos celulares, relojes,
computadoras de mano, notebooks y rastreadores de automóviles. El uso más
popular es en los vehículos, utilizados como sistema de navegación de mapas. El
GPS también es muy utilizado en la industria de la aviación civil/comercial
y en la navegación marítima.
Ciber ataques
La seguridad
informática es una de las principales preocupaciones para gobiernos, empresas y
servicios. Una de las modalidades de ataque informático más comunes son los
ataques DDoS que se dirigen a objetivos muy concretos y definidos.
Los ataques
DDoS son uno de los métodos de ataque más habituales en los servicios online.
Un ataque
DDoS (siglas en inglés de Distributed Denial-of-Service) o de denegación de
servicio consiste exactamente en realizar solicitudes masivas de conexión a una
dirección IP determinada, como un servidor, durante un cierto periodo de
tiempo.
Al recibir
una enorme cantidad de peticiones simultáneamente, el servicio no puede dar
respuesta a todas ellas y colapsa quedando fuera de servicio para los usuarios
legítimos.
Estos
ataques no solo se utilizan con fines económicos, también se utilizan como
método de protesta y ciberactivismo por decisiones de gobiernos o actuaciones
de empresas.
A
continuación algunos de los mayores
ataques DDoS (Distributed Denial of
Service. “ataque distribuido denegación
de servicio”) de la historia de Internet hasta hoy:
Cuando
Internet todavía estaba en pañales, el joven estudiante Robert Tappan Morris
creó, casi por casualidad, el primer gusano de Internet que daría lugar al
primer ataque DDoS de la historia.
En 2000, el
adolescente canadiense Michael Calce, más conocido por su nick MafiaBoy, lanzó un
ataque masivo que terminó tumbando portales tan importantes como Yahoo!, Dell,
CNN o eBay entre muchos otros.
Code Red, el
gusano que provocó un DDoS a La Casa Blanca (2001). Code Red era un gusano
informático que se ejecutaba en el servidor web de Microsoft IIS aprovechando
una vulnerabilidad que Microsoft había corregido solo un mes antes.
SQL Slammer
aprovechó la vulnerabilidad en Microsoft SQL Server 2000. El ataque se produjo
en enero de 2003 y, en solo 15 minutos, fue capaz de infectar a cientos de
miles de servidores en todo el mundo que fueron utilizados para lanzar un
ataque DDoS que dejaría a Corea del Sur sin Internet ni comunicaciones móviles
durante varias horas.
En EE.UU.
este ataque dejó sin servicio a más 13.000 cajeros automáticos del Bank of
America y sin suministro eléctrico a unos 50 millones de personas.
Ataque DDoS
contra Spamhaus (2013).Los ataques DDoS se utilizaron como medida de protesta o
estratégica contra intereses de determinadas empresas. Este es el motivo que
ocasionó uno de los ataques DDoS más masivos de los últimos años.
DynDNS, el
ataque masivo que dejó a medio Internet sin servicio (2016). Los servidores DNS
son los encargados de “traducir” los nombres de dominios que buscan los
usuarios, como ComputerHoy.com, en una dirección IP que indica al navegador en
qué servidor se encuentran los archivos que forman una página web.
Ataque
contra GitHub (2018). Uno de los mayores ataques DDoS de la historia de
Internet por el enorme volumen de peticiones que se generaron. Según los
expertos, este ha sido uno de los ataques más masivos y sofisticados de la
historia.
Hoy, las
políticas de ciberseguridad son cada vez más estrictas pero del otro lado
también son mas sofisticadas las técnicas de
los encargados de realizar este tipo de ataques.
Conclusión:
Es muy
probable que el desarrollo tecnológico del sistema de autopilotado alcance un grado de
seguridad tal que el índice de siniestros sea
equiparable al índice, en la actualidad, de vehículos convencionales
(fallas por errores humanos o
mecánicas).
No estoy tan
confiado en la absoluta "no vulnerabilidad" del sistema, dado que el mismo es tan
enmarañado que alguna mente con conocimientos específicos pueda interferir en
el normal tráfico de datos con el objetivo de hacer daño.
Veremos cómo
se desarrollan los acontecimientos a futuro, por el momento, cada uno sacará
sus conclusiones sobre ser conducido solo por el sistema.
Ing. Ricardo
Berizzo
Cátedra
Movilidad Eléctrica
UTN –
Rosario
2020.-