Foto: VCG
Teknologi.id – OpenAI resmi memperkenalkan GPT-5.4-Cyber, model kecerdasan buatan (AI) flagship yang dirancang khusus untuk kebutuhan keamanan siber (cybersecurity). Peluncuran pada Selasa (14/4) ini menempatkan GPT-5.4-Cyber sebagai pesaing langsung model AI Mythos milik Anthropic.
Fitur Analisis Tanpa Kode Sumber
GPT-5.4-Cyber merupakan versi modifikasi (fine-tuned) dari model dasar GPT-5.4. OpenAI merancangnya agar lebih responsif dalam membantu profesional mendeteksi dan menganalisis kerentanan sistem.
Salah satu kemampuan utama model ini adalah Binary Reverse Engineering. Fitur ini memungkinkan pengguna menganalisis perangkat lunak dalam bentuk fail jadi (compiled) untuk mencari potensi malware atau celah keamanan, tanpa perlu memiliki akses ke kode sumber (source code).
Baca juga: Harga Turun, Performa Naik: ChatGPT Pro Kini Lebih Ramah untuk Developer
Akses Terbatas Cegah Penyalahgunaan

Foto: Talent Spirit
Mengingat kemampuannya melacak celah keamanan pada produk jadi, OpenAI mengakui model ini berisiko disalahgunakan oleh pihak tidak bertanggung jawab untuk membobol sistem.
Untuk memitigasi risiko tersebut, OpenAI tidak merilis GPT-5.4-Cyber secara publik. Akses awal saat ini dibatasi ketat hanya bagi vendor keamanan siber, organisasi, dan peneliti yang telah melewati proses verifikasi.
Baca juga: OpenAI Siapkan Superapp Desktop, Integrasi ChatGPT dan Codex
Perluasan Program TAC
Bersamaan dengan peluncuran model baru ini, OpenAI memperluas cakupan program Trusted Access for Cyber (TAC) yang telah dimulai sejak Februari 2026. Program yang menargetkan profesional keamanan perangkat lunak ini kini memberlakukan sistem tingkatan (tier).
Pengguna yang lolos evaluasi ke tingkat tertinggi akan mendapatkan akses penuh ke GPT-5.4-Cyber. Untuk bergabung, pendaftar individu wajib melalui tahapan verifikasi identitas yang ketat, sementara pendaftar dari tingkat perusahaan harus mengajukan permohonan melalui perwakilan resmi OpenAI.
Baca Berita dan Artikel lainnya di Google News
(wn/sa)





Comments are closed.