logo

Samsung presenta la nueva memoria FIMDRAM, con inteligencia artificial integrada en la propia memoria

18 febrero, 2021 | 0 comments |
HBM-PIM

Un nuevo tipo de memoria RAM creado por Samsung propone ejecutar los procesos de Inteligencia Artificial directamente en el chip de memoria. Esto multiplica por dos el rendimiento de la IA, y reduce el consumo más de un 70%.

En cualquier dispositivo informático, desde un PC hasta un móvil, el trabajo para completar las tareas que exige una determinada app lo lleva a cabo el procesador, ya sea la propia CPU o la GPU (el chip gráfico). Ahora que la Inteligencia Artificial está de moda, muchos móviles y ordenadores disponen de chips con procesadores especializados que solo se dedican a procesar las tareas de Inteligencia Artificial.

Samsung ha sorprendido hoy con su propuesta de integrar la Inteligencia artificial dentro de la propia memoria, dando lugar a un nuevo tipo de RAM, la FIMDRAM, que se almacena en unos chips de memoria llamados HBM-PIM.

En realidad, lo que ha hecho Samsung es bastante sencillo de entender. Ha cogido sus chips de Memoria de Alto Ancho de Banda (HBM), y les ha añadido una capa extra con Procesadores en Memoria (PIM), para obtener unos chips llamados HBM-PIM:

Samsung HBM-PIM

Esta memoria de alta velocidad HBM contiene Unidades de Computación Programables (PCU) insertadas entre los propios bancos de memoria, tal como explica GSM Arena.

Estas unidades son capaces de realizar operaciones en punto flotante de 16 bits con un número limitado de instrucciones. Pueden sumar, multiplicar y mover datos dentro de la propia memoria.

La gran ventaja de este sistema es que no hay que mover los datos de la CPU a la memoria o viceversa, como se hace normalmente, porque las PCU trabajan directamente en la memoria.

Samsung ha conseguido que las PCU funcionen a 300 Mhz para obtener una potencia de proceso de 1,2 TFLOPs por chip. Y lo mejor de todo, consigue transmitir datos a 2,4 Gbps por pin, sin aumentar el consumo de energía.

Procesar las tareas de inteligencia artificial directamente en la memoria RAM, sin pasar por la CPU o la GPU, ofrece dos ventajas muy importantes. En primer lugar, al no tener que mover los datos al procesador para que los use, se reduce el consumo energético de las tareas de IA en un 71%. Y como los datos ya están en la RAM y no hay que moverlos, se ahorra tiempo, con lo que el rendimiento de la IA se multiplica por dos.

Son datos muy prometedores, aunque hay algún pequeño inconveniente. Al tener que reservar sitio para meter las PCU, la capacidad de memoria se reduce a la mitad, de 8 a 4 Gbits. Samsung lo ha arreglado combinando capas con PCUs y sin PCUs, para obtener chips de 6 Gbits de capacidad. A esta nueva memoria la ha llamado FIMDRAM.

Memoria FIMRAM

Samsung ya ha enviado chips de prueba a sus socios que trabajan en Inteligencia Artificial, y espera obtener un primer documento de desarrollo en julio.

Aún tardaremos un tiempo en ver esta memoria FIMDRAM en los dispositivos domésticos, pero sus prestaciones son muy prometedoras para el desarrollo de la inteligencia artificial.