La Inteligencia Artificial está mucho más presente en nuestras vidas de lo que creemos. Un ejemplo de esto es Facebook, y, entre otras muchas cosas, el logaritmo y sistema que la plataforma utiliza para para detectar contenido que viola las normas de uso.
En la conferencia de desarrolladores de Facebook, el F8, la plataforma ha presentado sus avances en Procesamiento del Lenguaje Natural (NLP, en inglés) y cómo está herramienta les ayuda a detectar contenido dañino. Todo esto mientras todos tenemos en mente el reciente tiroteo en Nueva Zelanda retransmitido por Facebook, lo que despertó a la gente que se cuestionara las políticas de de Facebook y qué hace la compañía para acabar con la difusión de este dantesco contenido . La compañía americana lleva años trabajando en erradicar este tipo de contenido de su servicio, y si puede ser, que se haga de forma automática mediante Inteligencia Artificial.
La Realidad Aumentada (AR) también juega un papel importante en la red social, y por ello, según Facebook, es importante asegurarse de que su tecnología no excluye a gente de ninguna manera, si no al contrario, necesitan confirmar que consigue unir a la gente. Facebook quiere cambiar, o al menos, hacer más accesible la manera en la que interactuamos con otra gente. La Realidad Aumentada y la Realidad Virtual pueden desempeñar una función clave para que podamos romper barreras físicas y tener a los nuestros un poco más cerca.
Además, al usar los servicios de Realidad Aumentada/Virtual de Facebook, los usuarios visualizan un pequeño vídeo que les explica las medidas de seguridad físicas que deben tomar a la hora de manejar esta tecnología, así como Safety Bubble , una función que nos protege de peligros al acercarnos demasiado a algunos objetos mientras tenemos la visión tapada.
Comentarios