Uno de los temas tecnológicos que más ha dado que hablar este año ha sido el de los coches autónomos. Tesla trabaja en ellos, Google también y se cree que Apple está de igual modo interesada. Hemos visto un sinfín de pruebas y hasta hemos comprobado con curiosas animaciones cómo ven con sus cámaras, láseres y radares estos vehículos, pero para que sean una realidad todavía hace falta ir más allá.
Y en ello están numerosas compañías automovilísticas, tecnológicas y universidades como la de Cambridge, donde un grupo de investigadores ha desarrollado SegNet, un sistema que podría revolucionar el desarrollo de los coches sin conductor y enseñarlos a ver de verdad.
Los coches autónomos podrán ver casi como nosotros
En la actualidad, como decíamos al principio, la mayoría de estos vehículos autónomos basan su funcionamiento en una serie de sofisticados sensores que identifican la carretera y los diferentes elementos que pueden encontrarse en el entorno para llevar a cabo la conducción de una forma segura. Estos sistemas, que no pocas veces superan en coste al propio coche, son sumamente complejos y requieren de varios elementos funcionando sí o sí a la vez.
Sin embargo, SegNet es capaz de llevar a cabo todas esas identificaciones, orientarse y además aprender con la experiencia, con solamente tomar una imagen de la escena. Necesita una simple cámara, incluso la de un teléfono móvil valdría según apuntan, y ya está.
El sistema, que puede funcionar tanto en ambientes luminosos o sombríos como por la noche, clasifica las instantáneas en tiempo real píxel por píxel hasta desgranarlas en doce tipos de objetos diferentes: la propia carretera, las señales de tráfico, los peatones, otros vehículos, edificios o ciclistas.
Así funciona SegNet, pruébalo tú mismo
En la página web del proyecto, a la que es posible acceder clicando aquí, podemos probar nosotros mismos el sistema subiendo una imagen desde nuestro ordenador o seleccionando una instantánea cualquiera de Google Street View.
Nosotros hemos hecho la prueba con la imagen de cabecera de este artículo, como podéis observar, y resulta sorprendente cómo el sistema ha sido capaz de identificar con bastante precisión todos los elementos que aparecen en la imagen.
Nuestra prueba del sistema SegNet
No obstante, para ver este avance en coches sin conductor todavía pasará un tiempo en el que necesariamente el desarrollo del proyecto tendrá que madurar. De momento, podría ser utilizado como un sistema de alerta a bordo en el que se puedan evitar colisiones, por ejemplo, o en robots domésticos como las aspiradoras autónomas.
Roberto Cipolla, el profesor que ha dirigido la investigación, afirma que enseñar a una máquina a ver como nosotros es mucho más difícil de lo que parece, pero es necesario, sobre todo cuando hablamos de vehículos:
La vista es nuestro sentido más poderoso y los coches sin conductor también tendrán que ver.
La vista es nuestro sentido más poderoso y los coches sin conductor también tendrán que ver.
SegNet también ubicaría geográficamente
SegNet, a través de su visión, también será capaz de saber dónde se encuentra el vehículocon solamente identificar las imágenes que capte su cámara. Así, de aparecer de pronto en una calle de Londres, por ejemplo, sería capaz de reconocer los diferentes elementos que encontraría a su alrededor y situarse sobre un mapa con mayor precisión que un GPS, según apuntan los investigadores, trabajando además en interiores y precisando la orientación.
Lo bueno de nuestro grupo es que hemos desarrollado una tecnología que usa el aprendizaje profundo para determinar dónde estás y lo que te rodea; esta es la primera vez que esto se ha hecho mediante este tipo de aprendizaje.
Ha afirmado concluyente Alex Kendall, uno de los estudiantes responsables del proyecto, en el comunicado difundido por la institución universitaria.
MalaVida.com
Lo bueno de nuestro grupo es que hemos desarrollado una tecnología que usa el aprendizaje profundo para determinar dónde estás y lo que te rodea; esta es la primera vez que esto se ha hecho mediante este tipo de aprendizaje.
No hay comentarios:
Publicar un comentario