Nvidia 【 TODA LA INFORMACIÓN 】

Nvidia Corporation, más comúnmente conocida como Nvidia, es una compañía de tecnología estadounidense constituida en Delaware y con sede en Santa Clara, California. Nvidia diseña unidades de procesamiento de gráficos para los mercados de videojuegos y profesionales, así como sistema en unidades de chip (SoC) para el mercado de computación móvil y automotriz. Su línea principal de productos, GeForce, está en competencia directa con los productos Radeon de AMD.

nvidia

Te recomendamos la lectura de nuestras mejores guías de hardware y componentes para PC:

Además de la fabricación de GPUs, Nvidia proporciona en todo el mundo capacidades de procesamiento en paralelo a investigadores y científicos, que les permiten ejecutar de manera eficiente aplicaciones de alto rendimiento. Más recientemente, se ha trasladado al mercado de la informática móvil, donde produce procesadores móviles Tegra para consolas de videojuegos, tablets y sistemas de navegación autónoma y entretenimiento para vehículos. Esto ha llevado a que desde 2014, Nvidia se ha transformado en una compañía enfocada en cuatro mercados: juegos, visualización profesional, centros de datos e inteligencia artificial y automoviles.

Historia de Nvidia

Nvidia fue fundada en 1993 por Jen-Hsun Huang, Chris Malachowsky, y Curtis Priem. Los tres cofundadores de la compañía plantearon la hipótesis de que la dirección correcta para la informática pasaría por el procesamiento acelerado por gráficos, pues creían que este modelo de computación podría resolver problemas que la informática de propósito general no podía resolver. También observaron que los videojuegos son algunos de los problemas más desafiantes desde el punto de vista computacional, y que tienen un volumen de ventas increíblemente alto.

De una pequeña empresa dedicada a los videojuegos a un gigante de la inteligencia artificial

La compañía nació con un capital inicial de 40,000 dólares, inicialmente no tenía nombre y los cofundadores nombraron todos sus archivos NV, como en “próxima versión”. La necesidad de incorporar a la compañía hizo que los cofundadores revisaran todas las palabras con esas dos letras, lo que las llevó a “invidia”, la palabra latina que significa “envidia”.

El lanzamiento de RIVA TNT en 1998 consolidó la reputación de Nvidia para desarrollar adaptadores de gráficos. A fines de 1999, Nvidia lanzó la GeForce 256 (NV10), que más notablemente introdujo la transformación e iluminación (T & L) a nivel de consumidor en hardware 3D. Funcionando a 120 MHz y presentando cuatro líneas de píxeles, implementó aceleración avanzada de video, compensación de movimiento y fusión de sub-imagen de hardware. GeForce superó a los productos existentes por un amplio margen.

Nvidia

Debido al éxito de sus productos, Nvidia ganó el contrato para desarrollar el hardware de gráficos para la consola de juegos Xbox de Microsoft, lo que le valió a Nvidia un avance de $ 200 millones. Sin embargo, el proyecto se llevó a muchos de sus mejores ingenieros de otros proyectos. A corto plazo, esto no importó, y el GeForce2 GTS se envió en el verano de 2000. En diciembre de 2000, Nvidia llegó a un acuerdo para adquirir los activos intelectuales de su único rival 3dfx, un pionero en tecnología gráfica 3D para el consumidor que lideraba el campo desde mediados de la década de 1990 hasta 2000. El proceso de adquisición finalizó en abril de 2002.

En julio de 2002, Nvidia adquirió Exluna por una cantidad de dinero no revelada. Exluna era responsable de la creación de varias herramientas de representación de software. Más tarde, en agosto de 2003, Nvidia adquirió MediaQ por aproximadamente 70 millones de dólares. Y también adquirió iReady, un proveedor de soluciones de descarga TCP / IP e iSCSI de alto rendimiento el 22 de abril de 2004.

Tan grande era el éxito de Nvidia en el mercado de los videojuegos, que en diciembre de 2004 se anunció que ayudaría a Sony con el diseño del procesador de gráficos RSX de la PlayStation 3, la consola de videojuegos de nueva generación de la firma japonesa que tenía la difícil tarea de repetir el éxito de su predecesora, la más vendida de la historia.

Nvidia

En diciembre de 2006, Nvidia recibió citaciones del Departamento de Justicia de EE. UU con respecto a posibles violaciones antimonopolio en la industria de las tarjetas gráficas. En aquel momento AMD se había convertido en su gran rival, después de la compra de ATI por parte de esta última. Desde entonces AMD y Nvidia han sido los únicos fabricantes de tarjetas gráficas para videojuegos, sin olvidar los chips integrados de Intel.

Forbes nombró a Nvidia como la mejor compañía del año 2007 citando los logros que obtuvo durante los cinco años anteriores. El 5 de enero de 2007, Nvidia anunció que había completado la adquisición de PortalPlayer, Inc, y en febrero de 2008 Nvidia adquirió Ageia, desarrollador del motor de física PhysX y la unidad de procesamiento de física que ejecutaba este motor. Nvidia anunció que planeaba integrar la tecnología PhysX en sus futuros productos de GPU GeForce.

Nvidia se enfrentó a una gran dificultad en julio de 2008, cuando recibió una reducción en sus ingresos de aproximadamente 200 millones luego de informarse que ciertos conjuntos de chips y GPU móviles producidos por la compañía tenían tasas de fallos anormales debido a defectos de fabricación. En septiembre de 2008 Nvidia se convirtió en el sujeto de una demanda colectiva por los afectados, alegando que las GPU defectuosas se habían incorporado a ciertos modelos de portátiles fabricados por Apple, Dell y HP. El culebrón finalizó en septiembre de 2010, cuando Nvidia llegó a un acuerdo por el que se reembolsaría a los propietarios de los portátiles afectados el importe de las reparaciones o, en algunos casos, el reemplazo del producto.

En noviembre de 2011, Nvidia lanzó su sistema de chip ARG Tegra 3 para dispositivos móviles después de presentarlo inicialmente en el Mobile World Congress. Nvidia afirmó que el chip presentaba la primera CPU móvil de cuatro núcleos. En enero de 2013, Nvidia presentó el Tegra 4, así como la Nvidia Shield, una consola de juegos portátil basada en Android que funciona con el nuevo procesador.

Nvidia

El 6 de mayo de 2016 Nvidia presentó las tarjetas gráficas GeForce GTX 1080 y 1070, las primeras basadas en la nueva microarquitectura Pascal. Nvidia afirmó que ambos modelos superaron a su modelo Titan X basado en Maxwell. Estas tarjetas incorporan memoria GDDR5X y GDDR5 respectivamente, y usan un proceso de fabricación de 16 nm. La arquitectura Pascal también admite una nueva característica de hardware conocida como proyección múltiple simultánea (SMP), que está diseñada para mejorar la calidad del renderizado de múltiples monitores y realidad virtual. Pascal ha permitido fabricar ordenadores portátiles que cumplen con el estándar de diseño Max-Q de Nvidia.

En mayo de 2017 Nvidia anunció una sociedad con Toyota Motor Corp por la cual esta última utilizará la plataforma de inteligencia artificial Drive serie X de Nvidia para sus vehículos autónomos. En julio de 2017 Nvidia y el gigante de búsqueda chino Baidu, Inc. anunciaron una asociación de gran alcance de inteligencia artificial que incluye computación en la nube, conducción autónoma, dispositivos de consumo y el framework de inteligencia artificial de Baidu, PaddlePaddle.

Nvidia GeForce y Nvidia Pascal, dominando el gaming

Nvidia

GeForce es la denominación comercial de las tarjetas gráficas basadas en las unidades de procesamiento gráfico (GPU) creadas por Nvidia a partir del año 1999. Hasta la actualidad, la serie GeForce ha conocido dieciséis generaciones desde su creación. Las versiones enfocadas a usuarios profesionales de estas tarjetas vienen bajo la denominación Quadro, e incluyen algunas características diferenciadoras a nivel de controladores. La competencia directa de GeForce es AMD con sus tarjetas Radeon.

Pascal es el nombre en clave de la última microarquitectura de GPU desarrollada por Nvidia que ha llegado al mercado de los videojuegos, como sucesora de la anterior arquitectura Maxwell. La arquitectura Pascal se presentó por primera vez en abril de 2016 con el lanzamiento de la Tesla P100 para servidores el 5 de abril de 2016. En la actualidad, Pascal se usa principalmente en la serie GeForce 10, siendo las GeForce GTX 1080 y GTX 1070 las primeras tarjetas para videojuegos fueron lanzados con esta arquitectura, el 17 de mayo de 2016 y el 10 de junio de 2016 respectivamente. Pascal se fabrica utilizando el proceso FinFET de 16nm de TSMC, lo que le permite ofrecer una eficiencia energética y un rendimiento muy superiores en comparación a Maxwell, que se fabricaba a 28 nm FinFET.

Nvidia

La arquitectura Pascal se organiza de forma interna en lo que se conoce como streaming multiprocessor (SM), unas unidades funcionales que están formadas por 64 CUDA Cores, los cuales a su ves se dividen en dos bloques de procesamiento de 32 CUDA Cores cada uno de ellos y acompañados de un búfer de instrucciones, un planificador de warp, 2 unidades de mapeo de texturas y 2 unidades de despacho. Estas unidades SM son las equivalentes a los CU de AMD.

La arquitectura Pascal de Nvidia ha sido diseñada para ser la más eficiente y avanzada del mundo gaming. El equipo de ingenieros de Nvidia ha puesto mucho esfuerzo en crear una arquitectura de GPU que sea capaz de alcanzar unas velocidades de reloj muy elevadas, a la vez que se mantiene un consumo de energía ajustado. Para conseguirlo, se ha optado por un diseño muy cuidado y optimizado en todos sus circuitos, dando como resultado que Pascal es capaz de alcanzar una frecuencia un 40% más elevada que Maxwell, una cifra muy superior a lo que habría permitido el proceso a 16 nm sin todas las optimizaciones a nivel de diseño.

La memoria es un elemento clave en el rendimiento de una tarjeta gráfica, la tecnología GDDR5 fue anunciada en el año 2009, por lo que ya se ha quedado obsoleta para las tarjetas gráficas más potentes de la actualidad. Por ello Pascal da soporte a las memorias GDDR5X, el que era el estándar de interfaz de memoria mas rápido y avanzado de la historia en el momento del lanzamiento de estas tarjetas gráficas, alcanzando velocidades de transferencia de hasta 10 Gbps o casi 100 picosegundos entre bits de datos. La memoria GDDR5X también permite que la tarjeta gráfica consuma menos energía en comparación con la GDDR5, ya que el voltaje de funcionamiento es de 1,35V, en comparación con los 1,5V o incluso más que necesitan los chips GDDR5 más rápidos. Esta reducción de voltaje se traduce en una frecuencia de funcionamiento un 43% superior con e mismo consumo de energía.

Nvidia

Otra importante innovación de Pascal viene de la mano de las técnicas de compresión de memoria sin perdida de rendimiento, lo que permite reducir la demanda de ancho de banda por parte de la GPU. Pascal incluye la cuarta generación de la tecnología de compresión de color delta. Con la compresión de color delta, la GPU analiza las escenas para calcular los píxeles cuya información puede ser comprimida sin sacrificar la calidad de la escena. Mientras que la arquitectura Maxwell no era capaz de comprimir datos relacionados con algunos elementos, como la vegetación y partes del coche en el juego Project Cars, Pascal es capas de comprimir la mayor parte de la información de estos elementos, siendo así mucho más eficiente que Maxwell. Como consecuencia de ello, Pascal es capaz de reducir significativamente el numero de bytes que tienen que ser extraídos de la memoria. Esta reducción en bytes se traduce en un 20% adicional de ancho de banda efectivo, haciendo que se entregue un aumento de 1.7 veces el ancho de banda con el uso de memorias GDDR5X respecto a las GDDR5 y la arquitectura Maxwell.

Pascal también ofrece importantes mejoras en relación con el Computo Asincronico, algo muy importante ya que actualmente las cargas de trabajo son muy complejas. Gracias a estas mejoras la arquitectura Pascal es más eficiente a la hora de repartir la carga entre todas sus diferentes unidades SM, lo que hace que apenas queden núcleos CUDA sin utilizar. Esto permite que la optimización de la GPU sea mucho mayor, haciendo que se aprovechen mejor todos los recursos que tiene.

La siguiente tabla resume las características más importantes de todas las tarjetas GeForce basadas en Pascal.

TARJETAS GRÁFICAS NVIDIA GEFORCE PASCAL

CUDA CoresFrecuencias (MHz)MemoriaInterfaz de la memoriaAncho de banda de la memoria (GB/s)TDP (W)
NVIDIA GeForce GT103038414682 GB GDDR564 bit4830
NVIDIA GeForce GTX105064014552 GB GDDR5128 bit11275
NVIDIA GeForce GTX1050Ti76813924 GB GDDR5128 bit11275
NVIDIA GeForce GTX1060 3 GB11521506/17083 GB GDDR5192 bit192120
NVIDIA GeForce GTX1060 6 GB12801506/17086 GB GDDR5192 bit192120
NVIDIA GeForce GTX107019201506/16838 GB GDDR5256 bit256150
NVIDIA GeForce GTX1070Ti24321607/16838 GB GDDR5256 bit256180
NVIDIA GeForce GTX108025601607/17338 GB GDDR5X256 bit320180
NVIDIA GeForce GTX1080 Ti35841480/158211 GB GDDR5X352 bit484250
NVIDIA GeForce GTX Titan Xp3840158212 GB GDDR5X384 bit547250

La inteligencia artificial y la arquitectura Volta

Las GPUs de Nvidia son muy utilizadas en los campos relacionados con el aprendizaje profundo, la inteligencia artificial y el análisis acelerado de grandes cantidades de datos. La compañía desarrolló el aprendizaje profundo basado en la tecnología de GPU, con la finalidad de utilizar la inteligencia artificial para abordar problemas como la detección del cáncer, la predicción del tiempo y los vehículos que conducen de manera autónoma, como los famosos Tesla.

Nvidia

El objetivo de Nvidia es ayudar a las redes a aprender a “pensar“. Las GPUs de Nvidia funcionan excepcionalmente bien para las tareas de aprendizaje profundo porque están diseñadas para computación paralela, y funcionan bien para manejar las operaciones vectoriales y matriciales que prevalecen en el aprendizaje profundo. Las GPUs de la compañía son utilizadas por investigadores, laboratorios, compañías tecnológicas y empresas empresariales. En el año 2009, Nvidia participó en lo que se llamó el big bang del aprendizaje profundo, ya que las redes neuronales de aprendizaje profundo se combinaron con las unidades de procesamiento de gráficos de la compañía. Ese mismo año, Google Brain utilizó las GPUs de Nvidia para crear redes neuronales profundas capaces de aprendizaje automático, donde Andrew Ng determinó que podrían aumentar la velocidad de los sistemas de aprendizaje profundo unas 100 veces.

En abril de 2016, Nvidia introdujo el superordenador DGX-1 basado en un clúster de 8 GPUs para mejorar la capacidad de los usuarios de utilizar el aprendizaje profundo mediante la combinación de GPU con software específicamente diseñado.  Nvidia también desarrolló las máquinas virtuales Nvidia Tesla K80 y P100 basadas en GPU, disponibles a través de Google Cloud, que Google instaló en noviembre de 2016. Microsoft agregó servidores basados en la tecnología de GPU de Nvidia en una presentación preliminar de su serie N, basada en la tarjeta Tesla K80. Nvidia también se asoció con IBM para crear un kit de software que aumenta las capacidades de IA de sus GPUs. En 2017, las GPUs de Nvidia también se pusieron en línea en el Centro RIKEN para el Proyecto de Inteligencia Avanzada para Fujitsu.

Nvidia

En mayo de 2018, los investigadores del departamento de inteligencia artificial de Nvidia, se dieron cuenta de la posibilidad de que un robot pueda aprender a realizar un trabajo, simplemente observando a la persona que realiza el mismo trabajo. Para lograrlo han creado un sistema que, después de una breve revisión y prueba, ya se puede usar para controlar los robots universales de la próxima generación.

Volta es el nombre en clave de la microarquitectura de GPU más avanzada que ha desarrollado Nvidia, es la arquitectura sucesora de Pascal y se anunció como parte de una ambición de hoja de ruta futura en marzo de 2013. La arquitectura lleva el nombre de Alessandro Volta, el físico, químico e inventor de la batería eléctrica. La arquitectura Volta no ha llegado al sector del gaming, aunque si lo ha hecho con la tarjeta gráfica Nvidia Titan V, enfocada al sector de consumo y que también puede ser usada en equipos para jugar.

Esta Nvidia Titan V es una tarjeta gráfica basada en el núcleo GV100 y tres stacks de memoria HBM2, todo en un mismo paquete. La tarjeta cuenta con un total de 12 GB de memoria HBM2 que funciona a través de una interfaz de memoria de 3072 bits. Su GPU contiene más de 21 millones de transistores, 5120 núcleos CUDA y 640 núcleos Tensor para ofrecer un rendimiento de 110 TeraFLOPS en aprendizaje profundo. Sus frecuencias de funcionamiento son de 1200 MHz de base y 1455 MHz en modo turbo, mientras que la memoria funciona a 850 MHz, ofreciendo un ancho de banda de 652.8 GB/s. Recientemente se ha anunciado una versión CEO Edition que aumenta la memoria hasta 32 GB.

Nvidia

La primera tarjeta gráfica fabricada por Nvidia con la arquitectura Volta fue la Tesla V100, la cual forma parte del sistema Nvidia DGX-1. La Tesla V100 hace uso del núcleo GV100 que fue lanzado el 21 de junio de 2017. La GPU Volta GV100 está construida en un proceso de fabricación a 12 nm FinFET, con 32 GB de memoria HBM2 que son capaces de ofrecer hasta 900 GB/s de ancho de banda.

Volta también da vida al SoC Tegra más reciente de Nvidia, llamado Xavier y que fue anunciado el 28 de septiembre de 2016. Xavier Contiene 7000 millones de transistores y 8 núcleos ARMv8 personalizados, junto a una GPU Volta con 512 núcleos CUDA y una TPU de fuente abierta (Unidad de Procesamiento Tensor) llamada DLA (Deep Learning Accelerator). Xavier puede codificar y descodificar video a resolución 8K Ultra HD (7680 × 4320 píxeles) en tiempo real, todo ello con un TDP de 20-30 vatios y un tamaño de troquel que se estima en unos 300 mm2 gracias al proceso de fabricación a 12 nm FinFET.

La arquitectura Volta se caracteriza por ser la primera en incluir los Tensor Core, unos núcleos especialmente diseñados para ofrecer un rendimiento muy superior en tareas de aprendizaje profundo respecto a los núcleos CUDA regulares. Un Tensor Core es una unidad que multiplica dos matrices FP16 4 × 4 y luego agrega una tercera matriz FP16 o FP32 al resultado, utilizando operaciones fusionadas de suma y multiplicación, obteniendo un resultado FP32 que podría degradarse opcionalmente a un resultado FP16. Los núcleos Tensor están destinados a acelerar el entrenamiento de redes neuronales.

Volta también destaca por incluir la avanzada interfaz propietaria NVLink, la cual es un protocolo de comunicaciones basado en cables para comunicaciones de semiconductores de corto alcance desarrollado por Nvidia, que se puede usar para transferencias de códigos de datos y control en sistemas de procesadores basados en CPU y GPU y en aquellos basados únicamente en GPU. NVLink especifica una conexión punto a punto con velocidades de datos de 20 y 25 Gb/s por carril de datos y por dirección en sus versiones primera y segunda. Las tasas de datos totales en los sistemas del mundo real son 160 y 300 GB/s para la suma total del sistema de flujos de datos de entrada y salida. Los productos NVLink introducidos hasta la fecha se centran en el espacio de aplicaciones de alto rendimiento. NVLINK fue anunciado por primera vez en marzo de 2014 y utiliza una interconexión de señalización de alta velocidad patentada y desarrollada por Nvidia.

La siguiente tabla resume las características más importantes de las tarjetas basadas en Volta:

TARJETAS GRÁFICAS NVIDIA VOLTA

CUDA CoresTensor CoreFrecuencias (MHz)MemoriaInterfaz de la memoriaAncho de banda de la memoria (GB/s)
TDP (W)
Tesla V1005120640146532 GB HBM24.096 bit900250
GeForce Titan V51206401200/145512 GB HBM23.072 bit652250
GeForce Titan V CEO Edition51206401200/145532 GB HBM24.096 bit900250

El futuro de Nvidia pasa por Turing y Ampere

Las dos futuras arquitecturas de Nvidia serán Turing y Ampere según todos los rumores aparecidos hasta la fecha, es posible que cuando leas este post alguna de las dos ya haya sido anunciada oficialmente. Por ahora no se sabe nada cierto sobre estas dos arquitecturas, aunque se habla de que Turing sería una versión de Volta simplificada para el mercado gaming, de hecho se espera que llegue con el mismo proceso de fabricación a 12 nm.

Ampere suena como la arquitectura sucesora de Turing, aunque también podría ser la sucesora de Volta para el sector de la inteligencia artificial. De esta si que no se sabe absolutamente nada, aunque parece lógico esperar que llegue fabricada a 7 nm.  Los rumores apuntan a que Nvidia anunciará sus nuevas tarjetas GeForce en Gamecom en el próximo mes de agosto, solo entonces saldremos de dudas sobre lo que serán Turing o Ampere, si es que llegan a existir realmente.

NVIDIA G-Sync, acabando con los problemas de sincronización de imagen

G-Sync es una tecnología patentada de sincronización adaptativa desarrollada por Nvidia, cuyo objetivo principal es eliminar el desgarro de la pantalla y la necesidad de alternativas en forma de software como Vsync. G-Sync elimina el desgarro de la pantalla al forzar que esta que se adapte al framerate del dispositivo de salida, la tarjeta gráfica, en lugar de que el dispositivo de salida se adapte a la pantalla, lo que resulta en rotura de la imagen en la pantalla.

Para que un monitor sea compatible con G-Sync, debe contener un módulo de hardware vendido por Nvidia. AMD (Advanced Micro Devices) ha lanzado una tecnología similar para pantallas, llamada FreeSync, que tiene la misma función que G-Sync pero no requiere de ningún hardware específico.

Nvidia creó una función especial para evitar la posibilidad de que un nuevo fotograma esté listo mientras se dibuja un duplicado en la pantalla, algo que puede generar retraso y/o tartamudeo, el módulo anticipa la actualización y espera el siguiente fotograma para ser completado. La sobrecarga de píxeles también se vuelve engañosa en un escenario de actualización no fijo, y las soluciones predicen cuándo se realizará la próxima actualización, por consiguiente, se debe implementar y ajustar el valor de sobremarcha para cada panel a fin de evitar el efecto fantasma.

Nvidia

El módulo se basa en un FPGA de la familia Altera Arria V GX con elementos lógicos 156K, 396 bloques DSP y 67 canales LVDS. Se produce en el proceso TSMC 28LP y se combina con tres chips que suman un total de 768 MB de DRAM DDR3L, para alcanzar un cierto ancho de banda. El FPGA empleado también presenta una interfaz LVDS para controlar el panel del monitor. Este módulo destinado a reemplazar los escaladores comunes y a integrarlo fácilmente los fabricantes de monitores, que solo deben encargarse de la placa de circuito de suministro de energía y las conexiones de entrada.

G-Sync se ha enfrentado a algunas críticas debido a su naturaleza patentada, y al hecho de que todavía se promueve cuando existen alternativas libres, como el estándar VESA Adaptive-Sync, que es una característica opcional de DisplayPort 1.2a. Mientras que FreeSync de AMD se basa en DisplayPort 1.2a, G-Sync requiere un módulo hecho en Nvidia en lugar del escalador habitual en la pantalla para que funcione correctamente las tarjetas gráficas Nvidia GeForce, siendo compatible con las microarquitecturas Kepler, Maxwell, Pascal y Volta.

El siguiente paso se ha dado con la tecnología G-Sync HDR, que como su propio nombre indica, añade capacidades HDR para mejorar en gran medida la calidad de imagen del monitor. Para hacer esto posible, se ha tenido que dar un salto significativo con el hardware. Esta nueva versión G-Sync HDR usa un FPGA Intel Altera Arria 10 GX 480, un procesador altamente programable y muy avanzado que puede codificarse para una amplia gama de aplicaciones, el cual se acompaña de 3 GB de memoria DDR4 a 2400MHz fabricada por Micron. Esto hace que el precio de estos monitores se encarezca de una forma mucho más notable.

Nvidia

Aquí finaliza nuestro post sobre todo lo que tiene que saber de Nvidia. Recuerda que puedes compartirlo en las redes sociale spara que llegue a más usuarios. También puedes dejar un comentario si tienes alguna sugerencia o algo que añadir.

Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com