Els productes de serveis d'intel·ligència artificial generativa com ara ChatGPT i Midjourney estan atraient l'atenció del mercat. En aquest context, l'Associació Coreana de la Indústria d'Intel·ligència Artificial (KAIIA) va celebrar la "Gen-AI Summit 2023" al COEX de Samseong-dong, Seül. L'esdeveniment de dos dies té com a objectiu promoure i avançar en el desenvolupament de la intel·ligència artificial generativa (IA), que està expandint tot el mercat.
El primer dia, començant amb el discurs inaugural de Jin Junhe, cap del departament de negocis de fusió d'intel·ligència artificial, grans empreses tecnològiques com Microsoft, Google i AWS que desenvolupen i donen servei activament a ChatGPT, així com indústries fabless que desenvolupen semiconductors d'intel·ligència artificial, van assistir i van fer presentacions rellevants, incloent-hi "Canvis en la PNL provocats per ChatGPT" a càrrec del CEO de Persona AI, Yoo Seung-jae, i "Construcció d'un xip d'inferència d'IA d'alt rendiment, eficiència energètica i escalable per a ChatGPT" a càrrec del CEO de Furiosa AI, Baek Jun-ho.
Jin Junhe va dir que el 2023, l'any de la guerra de la intel·ligència artificial, el complement ChatGPT entrarà al mercat com una nova regla de joc per a l'enorme competència de models lingüístics entre Google i MS. En aquest cas, preveu oportunitats en semiconductors d'IA i acceleradors que admeten models d'IA.
Furiosa AI és una empresa representativa sense fàbrica que fabrica semiconductors d'IA a Corea. El CEO de Furiosa AI, Baek, que està treballant de valent per desenvolupar semiconductors d'IA d'ús general per posar-se al dia amb Nvidia, que controla la major part del mercat mundial d'IA a hiperescala, està convençut que "la demanda de xips en el camp de la IA explotarà en el futur".
A mesura que els serveis d'IA es tornen més complexos, inevitablement s'enfronten a un augment dels costos d'infraestructura. Els productes GPU A100 i H100 actuals d'Nvidia tenen l'alt rendiment i la potència de càlcul necessaris per a la computació amb intel·ligència artificial, però a causa de l'augment dels costos totals, com ara l'alt consum d'energia i els costos de desplegament, fins i tot les empreses ultragrans es mostren reticents a l'hora de canviar a productes de nova generació. La relació cost-benefici va expressar preocupació.
En aquest sentit, Baek va predir la direcció del desenvolupament tecnològic, dient que, a més de que cada cop més empreses adoptin solucions d'intel·ligència artificial, la demanda del mercat serà maximitzar l'eficiència i el rendiment dins d'un sistema específic, com ara "l'estalvi d'energia".
A més, va emfatitzar que el punt de difusió del desenvolupament de semiconductors d'intel·ligència artificial a la Xina és la "usabilitat", i va dir que com resoldre el suport de l'entorn de desenvolupament i la "programabilitat" seran la clau.
Nvidia ha creat CUDA per mostrar el seu ecosistema de suport, i garantir que la comunitat de desenvolupament doni suport a marcs representatius per a l'aprenentatge profund com ara TensorFlow i Pytoch s'està convertint en una estratègia de supervivència important per a la productivització.
Data de publicació: 29 de maig de 2023





