Apakah menurut Anda insting AMD MI300X dan GPU B200 NVIDIA sangat besar?TSMC baru -baru ini mengumumkan di seminar Teknologi Amerika Utara bahwa mereka sedang mengembangkan versi baru teknologi pengemasan Cowos, yang akan meningkatkan ukuran pengemasan tingkat sistem (SIP) lebih dari dua kali.Pabrik OEM memperkirakan bahwa ini akan menggunakan paket besar 120x120mm dan mengkonsumsi beberapa kilowatt daya.
Versi terbaru Cowos memungkinkan TSMC untuk memproduksi lapisan perantara silikon yang kira -kira 3,3 kali lebih besar dari fotomask (atau topeng, 858 milimeter persegi).Oleh karena itu, logika, 8 hbm3/hbm3e tumpukan memori, I/O, dan chip kecil lainnya (chiplets) dapat menempati hingga 2831 milimeter persegi.Ukuran substrat maksimum adalah 80 x 80 milimeter.Naluri AMD MI300X dan B200 NVIDIA keduanya menggunakan teknologi ini, meskipun chip B200 NVIDIA lebih besar dari MI300X AMD.
Cowosl generasi berikutnya akan dimasukkan ke dalam produksi pada tahun 2026 dan akan dapat mencapai lapisan menengah sekitar 5,5 kali ukuran topeng (yang mungkin tidak mengesankan seperti ukuran topeng 6 kali yang diumumkan tahun lalu).Ini berarti bahwa 4719 milimeter persegi akan tersedia untuk logika, hingga 12 tumpukan memori HBM, dan chip kecil lainnya.Jenis SIP ini membutuhkan substrat yang lebih besar, dan menurut slide TSMC, kami sedang mempertimbangkan 100x100 milimeter.Oleh karena itu, chip semacam itu tidak akan dapat menggunakan modul OAM.
TSMC tidak akan berhenti di sana: pada tahun 2027, ia akan memiliki versi baru teknologi Cowos, yang akan membuat ukuran lapisan menengah 8 kali atau lebih kali ukuran topeng, memberikan ruang 6864 milimeter persegi untuk chiplet.Salah satu desain yang diusulkan TSMC bergantung pada empat chip sistem terintegrasi (SOIC) yang ditumpuk, dipasangkan dengan 12 tumpukan memori HBM4 dan chip I/O tambahan.Raksasa seperti itu pasti akan mengkonsumsi sejumlah besar daya - yang dibahas di sini adalah beberapa kilowatt dan membutuhkan teknik pendinginan yang sangat kompleks.TSMC juga mengharapkan jenis solusi ini untuk menggunakan substrat 120x120mm.
Menariknya, awal tahun ini, Broadcom memamerkan chip AI khusus dengan dua chip logika dan 12 tumpukan memori HBM.Kami tidak memiliki spesifikasi spesifik untuk produk ini, tetapi terlihat lebih besar dari AMD's Instinct MI300X dan Nvidia's B200, meskipun tidak sebesar rencana TSMC 2027.