Els productes de serveis d'intel·ligència artificial generativa com ara ChatGPT i Midjourney estan cridant l'atenció del mercat. En aquest context, l'Associació de la Indústria de la Intel·ligència Artificial de Corea (KAIIA) va celebrar la 'Gen-AI Summit 2023' al COEX de Samseong-dong, Seül. L'esdeveniment de dos dies té com a objectiu promoure i avançar en el desenvolupament de la intel·ligència artificial generativa (IA), que està ampliant tot el mercat.
El primer dia, començant amb el discurs magistral de Jin Junhe, cap del departament de negocis de fusió d'intel·ligència artificial, van assistir grans empreses tecnològiques com Microsoft, Google i AWS que desenvolupen activament i serveixen ChatGPT, així com indústries sense faules que desenvolupen semiconductors d'intel·ligència artificial. va fer presentacions rellevants, com ara "Canvis de PNL introduïts per ChatGPT" pel CEO de Persona AI, Yoo Seung-jae, i "Construir un xip d'inferència d'IA d'alt rendiment, eficient en potència i escalable per a ChatGPT" del CEO de Furiosa AI, Baek Jun-ho .
Jin Junhe va dir que el 2023, l'any de la guerra de la intel·ligència artificial, el connector ChatGPT entrarà al mercat com a nova regla de joc per a l'enorme competència de models lingüístics entre Google i MS. En aquest cas, preveu oportunitats en semiconductors i acceleradors d'IA que donen suport a models d'IA.
Furiosa AI és una empresa representativa de fabless que fabrica semiconductors AI a Corea. El CEO de Furiosa AI, Baek, que està treballant dur per desenvolupar semiconductors d'IA de propòsit general per posar-se al dia amb Nvidia, que ocupa la major part del mercat mundial d'IA a hiperescala, està convençut que "la demanda de xips en el camp de la IA explotarà en el futur. ”
A mesura que els serveis d'IA es tornen més complexos, inevitablement s'enfronten a un augment dels costos d'infraestructura. Els productes actuals de GPU A100 i H100 de Nvidia tenen l'alt rendiment i la potència de càlcul requerits per a la informàtica amb intel·ligència artificial, però a causa de l'augment dels costos totals, com ara l'alt consum d'energia i els costos de desplegament, fins i tot les empreses a gran escala desconfien de canviar a productes de nova generació. La relació cost-benefici va expressar la seva preocupació.
En aquest sentit, Baek va predir la direcció del desenvolupament tecnològic, dient que a més de cada cop més empreses que adopten solucions d'intel·ligència artificial, la demanda del mercat serà maximitzar l'eficiència i el rendiment dins d'un sistema específic, com ara "l'estalvi d'energia".
A més, va destacar que el punt de difusió del desenvolupament de semiconductors d'intel·ligència artificial a la Xina és la "usabilitat", i va dir que com resoldre el suport de l'entorn de desenvolupament i la "programabilitat" serà la clau.
Nvidia ha construït CUDA per mostrar el seu ecosistema de suport i garantir que la comunitat de desenvolupament admeti marcs representatius per a l'aprenentatge profund com TensorFlow i Pytoch s'està convertint en una estratègia de supervivència important per a la producció.
Hora de publicació: 29-maig-2023