Ainekko, en startup med verksamhet inom öppen, programvarudefinierad AI-infrastruktur, meddelar att företaget går samman med Veevx, ett fablöst halvledarföretag känt för sina inbäddade AI-lösningar och MRAM-baserade minnesinnovationer.

Douglas Smith, medgrundare av Veevx och en ingenjör som under många år hanterade immateriella rättigheter på Broadcom, kommer att ansluta sig till Ainekko som medlem i ledningsgruppen för att hjälpa till att leda företaget nästa kapitel.
Det sammanslagna företaget kommer att verka under namnet Ainekko och fortsätta sitt uppdrag att demokratisera kisel genom att leverera flexibla, programvarudefinierade hårdvaruplattformar som ger utvecklare, startups och forskare möjlighet att tillsammans designa och bygga nästa generations chip.
Fusionen sammanför två visionära team: Ainekkos öppen källkodsplattform för AI-nativt kisel och Veevx expertis inom inbäddad AI, inklusive deras egenutvecklade iRAM-minnesteknik och AI-accelerator med låg effekt, tillsammans med mikrostyrkrets. Fusionen följer på Ainekkos nyligen förvärvade Esperanto Technologies immateriella rättigheter, inklusive en mångkärnig RISC-V-chiparkitektur och verktygskedja. Tillsammans med Veevx skapar Ainekko en fullstack, öppen kiselplattform optimerad för snabb AI-innovation i edge-miljön.
– Vi gör för AI-hårdvara vad Linux gjorde för operativsystem och Kubernetes gjorde för molninfrastruktur. Med tillägget av Veevx arkitekturteam, MRAM-baserad minnes-IP och Douglas ledarskap kombinerar vi avancerad beräkning och lagring med radikal öppenhet. Detta är inte ytterligare ett chipföretag utan en öppen grund för nästa generations intelligenta enheter, säger Tanya Dadasheva, medgrundare och vd för Ainekko.
Med AI-arbetsbelastningar som alltmer flaskhalsar på grund av minnesbandbredd och strömbegränsningar betraktas Veevx MRAM-baserade iRAM-teknik som ett genombrott. Till skillnad från traditionella SRAM eller dyra DRAM-stackar levererar iRAM högdensitets, icke-flyktigt minne med SRAM-liknande prestanda, vilket är idealiskt för edge-AI och inbyggd inferens. Enligt Ainekko positionerar detta företaget att kunna erbjuda en öppen, energieffektiv beräkningsstack som inkluderar minne, bearbetning och verktyg i en värld där minne i allt högre grad definierar prestanda.
– Vi byggde Veevx för att ge högpresterande, lågenergi-AI till inbyggda system som behöver verklig intelligens i kanten. Att kombinera vår expertis inom minnes- och inferensacceleration med Ainekkos öppna, community-first-strategi skapar något verkligt kraftfullt. Detta är inte bara en sammanslagning utan ett språng framåt för AI-hårdvaruinnovation, säger Douglas Smith.
Den kombinerade plattformen avser möjliggöra:
- Intelligenta minnesundersystem (som iRAM) som ersätter strömslukande SRAM med energieffektiva, skalbara alternativ
- Inbyggda acceleratorer optimerade för inferens vid kanten, sampaketerade med mikrostyrkrets
Öppen källkods-RTL, emuleringsverktyg och utvecklarresurser som möjliggör fullständig anpassning - En communityledd färdplan som utvecklas tillsammans med verkliga AI-arbetsbelastningar,
Enligt Ainekkos speglar deras tillvägagångssätt vad Linux gjorde för operativsystem och Kubernetes gjorde för molnet: det flyttar kontrollen från proprietära leverantörer till utvecklare och innovatörer. Nästa era av halvledare kommer spås vara:
- AI-genererade: Chips som är samdesignade av AI baserat på verkliga applikationer
Öppna som standard: Byggda på tillgänglig RTL och communityägda verktyg - Edge-native: Fokuserade på strömsnål, skalbar inferens bortom datacentret
- Communityledd: Möjliggör för byggare som inte vill vänta på tillstånd
Ainekko är enligt bolaget inte ytterligare ett chipföretag. Det är den första öppna plattformen för AI-nativ kisel, en kategoridefinierande grund som gör chipdesign snabb, samarbetsinriktad och tillgänglig. Med Veevx avser Ainekko accelerera sin färdplan och stärka sin satsning på öppen kisel som det som de hävdar är ett oundvikligt nästa plattformsskifte.