
PCI SIG ha revelado las especificaciones finales del PCIe 4.0, que ya se habían filtrado y que en 2019 ya veremos el PCIe 5.0, que doblara en ancho de banda al PCIe 4.0.
Tenemos ya los datos definitivos de la nueva tecnología PCIe, que llegara este próximo año a las placas base y con soporte oficial en determinadas familias de procesadores. PCI SIG, la asociación encargada de definir y desarrollar la tecnología de comunicación PCI y PCI Express, ha publicado las especificaciones finales del nuevo estándar PCIe 4.0 en a v1.0. Actualmente, nos encontramos en el PCIe 3.0 que ofrece un ancho de banda de 32GT/s (en su versión más reciente), una tecnología que fue lanzada en 2010 y que lleva varios años entre nosotros, igual, demasiados.
El PCIe 4.0 ofrecerá inicialmente 64GT/s (64Gbps), lo cual supone duplicar la potencia del ancho de banda del PCIe 3.0. Actualmente el PCIe 3.0 permite ofrecer hasta 75W, pero en el PCIe 4.0 se ofrecen 300W de potencia con picos de 500W, algo que en muchos modelos (GTX 1060, GTX 1070 o RX 580), podría suponer la supresión de los conectores de alimentación, pero cuidado, esto limitaría o impediría el overclocking en estas tarjetas gráficas, debido a que la potencia de este conector es finita.
La vida de este conector, será más corta que el PCIe 3.0, ya que está previsto que en 2019 llegue el PCIe 5.0, el cual aún está en desarrollo, encontrándose en la versión v0.3, pero que para 2019 ya veremos la revisión v1.0. Este puesto ofrecerá la un ancho de banda de 128GT/s (128Gbps), un ancho de banda brutal, que supondrá dobla al PCIe 4.0, en lo que a ancho de banda se refiere. Actualmente este puerto de expansión aún queda muy lejos, pero será muy importante para desarrollar unidades de almacenamiento más rápidas y eficientes o que las tarjetas gráficas puedan comunicarse de manera más eficiente con el procesador.
Pues si PCIe 3.0 duró mucho… si, pero prácticamente en este último año apenas se le está sacando provecho, incluyendo las GPU’s