Microsoft menambah GPT-4 Turbo LLM kepada versi percuma Copilot
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Dengan LLM kuantum kini tersedia pada ekosistem HuggingFace dan AI seperti H20, Text Gen dan GPT4All yang membolehkan anda memuatkan pemberat LLM pada komputer anda, kini anda mempunyai pilihan untuk AI percuma, fleksibel dan selamat. Berikut ialah 9 LLM tempatan/luar talian terbaik yang boleh anda cuba sekarang!
Jadual Kandungan

Hermes 2 Pro ialah model bahasa lanjutan yang diperhalusi oleh Nous Research. Ia menggunakan versi set data OpenHermes 2.5 yang dikemas kini dan dikecilkan, bersama-sama dengan set data Panggilan Fungsi dan JSON yang baru diperkenalkan yang dibangunkan oleh syarikat itu sendiri. Model ini berdasarkan seni bina Mistral 7B dan telah dilatih pada 1,000,000 arahan/perbualan kualiti GPT-4 atau lebih baik, kebanyakannya data sintetik.
|
Model |
Hermes 2 Pro GPTQ |
|---|---|
|
Saiz model |
7.26 GB |
|
Parameter |
7 bilion |
|
Kuantisasi |
4-bit |
|
taip |
Mistral |
|
Lesen |
Apache 2.0 |
Hermes 2 Pro pada Mistral 7B ialah model Hermes 7B perdana baharu, menawarkan prestasi yang dipertingkatkan merentas pelbagai penanda aras, termasuk AGIEval, BigBench Reasoning, GPT4All dan TruthfulQA. Keupayaan canggihnya menjadikannya sesuai untuk banyak tugas pemprosesan bahasa semula jadi (NLP), seperti penjanaan kod, penciptaan kandungan dan aplikasi AI perbualan.
Zephyr ialah satu siri model bahasa yang dilatih untuk bertindak sebagai pembantu yang membantu. Zephyr-7B-Beta ialah model kedua dalam siri ini, diperhalusi daripada Mistral-7B-v0.1 menggunakan Pengoptimuman Keutamaan Terus (DPO) pada campuran set data sintetik yang tersedia untuk umum.
|
Model |
Zephyr 7B Beta |
|---|---|
|
Saiz model |
7.26 GB |
|
Parameter |
7 bilion |
|
Kuantisasi |
4-bit |
|
taip |
Mistral |
|
Lesen |
Apache 2.0 |
Dengan menghapuskan penjajaran terbina dalam set data latihan, Zephyr-7B-Beta menunjukkan prestasi yang lebih baik pada penanda aras seperti MT-Bench, meningkatkan kegunaannya dalam pelbagai tugas. Walau bagaimanapun, pelarasan ini boleh membawa kepada penjanaan teks yang bermasalah apabila digesa dengan cara tertentu.

Versi terkuantiti Falcon ini adalah berdasarkan seni bina penyahkod sahaja yang diperhalusi pada model mentah Falcon-7b TII. Model Falcon asas dilatih menggunakan 1.5 trilion token tertunggak yang diperoleh daripada Internet awam. Sebagai model penyahkod berasaskan arahan berlesen Apache 2 sahaja, Falcon Instruct sesuai untuk perniagaan kecil yang mencari model untuk digunakan untuk terjemahan bahasa dan pengingesan data.
|
Model |
Falcon-7B-Arahan |
|---|---|
|
Saiz model |
7.58 GB |
|
Parameter |
7 bilion |
|
Kuantisasi |
4-bit |
|
taip |
Falcon |
|
Lesen |
Apache 2.0 |
Walau bagaimanapun, versi Falcon ini tidak sesuai untuk penalaan halus dan hanya bertujuan untuk inferens. Jika anda ingin memperhalusi Falcon, anda perlu menggunakan model mentah, yang mungkin memerlukan akses kepada perkakasan latihan gred perusahaan seperti NVIDIA DGX atau AMD Instinct AI Accelerators.
GPT4All-J Groovy ialah model penyahkod sahaja yang ditala oleh Nomic AI dan dilesenkan di bawah Apache 2.0. GPT4ALL-J Groovy adalah berdasarkan model GPT-J asal, yang diketahui hebat dalam menjana teks daripada gesaan. GPT4ALL -J Groovy telah diubah suai kepada model perbualan, yang bagus untuk aplikasi penjanaan teks yang pantas dan kreatif. Ini menjadikan GPT4All-J Groovy sesuai untuk pencipta kandungan dalam membantu mereka dengan penulisan dan gubahan mereka, sama ada puisi, muzik atau cerita.
|
Model |
GPT4ALL-J Groovy |
|---|---|
|
Saiz model |
3.53 GB |
|
Parameter |
7 bilion |
|
Kuantisasi |
4-bit |
|
taip |
GPT-J |
|
Lesen |
Apache 2.0 |
Malangnya, model GPT-J garis dasar telah dilatih pada set data bahasa Inggeris sahaja, yang bermaksud bahawa model GPT4ALL-J yang diperhalusi ini hanya boleh bercakap dan melaksanakan aplikasi penjanaan teks dalam bahasa Inggeris.

DeepSeek Coder V2 ialah model bahasa lanjutan yang meningkatkan pengaturcaraan dan penaakulan matematik. DeepSeek Coder V2 menyokong berbilang bahasa pengaturcaraan dan menawarkan panjang konteks lanjutan, menjadikannya alat serba boleh untuk pembangun.
|
Model |
DeepSeek Coder V2 Arahan |
|---|---|
|
Saiz model |
13 GB |
|
Parameter |
33 bilion |
|
Kuantisasi |
4-bit |
|
taip |
DeepSeek |
|
Lesen |
Apache 2.0 |
Berbanding dengan pendahulunya, DeepSeek Coder V2 menunjukkan peningkatan ketara dalam tugas yang berkaitan dengan kod, penaakulan dan keupayaan umum. Ia melanjutkan sokongan untuk bahasa pengaturcaraan daripada 86 kepada 338 dan memanjangkan panjang konteks daripada 16K kepada 128K token. Dalam penanda aras, ia mengatasi model seperti GPT-4 Turbo, Claude 3 Opus dan Gemini 1.5 Pro dalam penanda aras kriptografi dan matematik.

Mixtral-8x7B ialah gabungan model pakar (MoE) yang dibangunkan oleh Mistral AI. Ia mempunyai 8 pakar setiap MLP, berjumlah 45 bilion parameter. Walau bagaimanapun, hanya dua pakar diaktifkan setiap token semasa inferens, menjadikannya cekap dari segi pengiraan, dengan kelajuan dan kos yang setanding dengan model parameter 12 bilion.
|
Model |
Mixtral-8x7B |
|---|---|
|
Saiz model |
12 GB |
|
Parameter |
45 bilion (8 pakar) |
|
Kuantisasi |
4-bit |
|
taip |
Mistral MoE |
|
Lesen |
Apache 2.0 |
Mixtral menyokong panjang konteks sebanyak 32k token dan mengatasi prestasi Llama 2 sebanyak 70B pada kebanyakan penanda aras, sepadan atau melebihi prestasi GPT-3.5. Ia fasih dalam berbilang bahasa, termasuk Inggeris, Perancis, Jerman, Sepanyol dan Itali, menjadikannya pilihan serba boleh untuk pelbagai tugas NLP.
Wizard-Vicuna GPTQ ialah versi kuantum Wizard Vicuna berdasarkan model LlaMA. Tidak seperti kebanyakan LLM yang dikeluarkan kepada umum, Wizard-Vicuna ialah model yang tidak ditapis dengan perkaitan dialih keluar. Ini bermakna model tersebut tidak mempunyai standard keselamatan dan etika yang sama seperti kebanyakan model lain.
|
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
|---|---|
|
Saiz model |
16.94 GB |
|
Parameter |
30 bilion |
|
Kuantisasi |
4-bit |
|
taip |
LlaMA |
|
Lesen |
GPL 3 |
Walaupun ia mungkin menimbulkan masalah untuk kawalan penjajaran AI, mempunyai LLM yang tidak ditapis juga memberikan yang terbaik dalam model dengan membenarkannya menjawab tanpa sebarang kekangan. Ini juga membolehkan pengguna menambah penjajaran tersuai mereka sendiri tentang cara AI harus bertindak atau bertindak balas berdasarkan gesaan yang diberikan.

Adakah anda ingin menguji model yang dilatih menggunakan kaedah pembelajaran yang unik? Orca Mini ialah pelaksanaan tidak rasmi kertas penyelidikan Orca Microsoft. Model ini dilatih menggunakan pendekatan pembelajaran guru-murid, di mana set data diisi dengan penjelasan dan bukannya gesaan dan respons sahaja. Secara teori, ini sepatutnya menjadikan pelajar lebih bijak, kerana model itu boleh memahami masalah dan bukannya hanya mencari pasangan input dan output kerana LLM konvensional berfungsi.

Llama 2 ialah pengganti kepada Llama LLM yang asal, menawarkan prestasi yang lebih baik dan serba boleh. Varian 13B Chat GPTQ ditala untuk aplikasi AI perbualan yang dioptimumkan untuk dialog bahasa Inggeris.
Beberapa model yang disenaraikan di atas datang dalam pelbagai versi dari segi spesifikasi. Secara umum, versi spesifikasi yang lebih tinggi menghasilkan hasil yang lebih baik tetapi memerlukan perkakasan yang lebih berkuasa, manakala versi spesifikasi yang lebih rendah menghasilkan hasil kualiti yang lebih rendah tetapi boleh dijalankan pada perkakasan yang lebih rendah. Jika anda tidak pasti sama ada PC anda boleh menjalankan model ini, cuba versi spesifikasi yang lebih rendah dahulu, kemudian teruskan sehingga anda merasakan penurunan prestasi tidak lagi boleh diterima.
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Nvidia baru sahaja mengumumkan keluaran model bahasa besar (LLM) sumber terbuka yang dikatakan berprestasi setanding dengan model proprietari terkemuka daripada OpenAI, Anthropic, Meta dan Google.
Foxconn, syarikat yang paling terkenal dalam pembuatan iPhone dan produk perkakasan Apple yang lain, baru sahaja mengejutkan semua orang dengan mengumumkan model bahasa besar (LLM) pertamanya, dipanggil FoxBrain, yang bertujuan untuk digunakan untuk meningkatkan pengurusan pembuatan dan rantaian bekalan.
Bosan dengan ralat Microsoft Teams Where to Find Team yang mengecewakan? Dapatkan pembetulan langkah demi langkah untuk desktop, web dan mudah alih. Selesaikannya dengan cepat dengan panduan pakar kami—tiada kemahiran teknikal diperlukan!
Bosan dengan Ralat Bantuan Microsoft Teams yang mengecewakan yang menyekat aliran kerja anda? Dapatkan pembetulan langkah demi langkah yang berfungsi pada versi terkini. Kosongkan cache, kemas kini dan banyak lagi—tiada kemahiran teknikal diperlukan!
Menghadapi ralat log masuk Microsoft Teams pada Chromebook? Temui penyelesaian langkah demi langkah untuk menyelesaikan masalah log masuk dengan cepat. Kosongkan cache, kemas kini aplikasi dan banyak lagi untuk kerja berpasukan yang lancar. Berfungsi pada OS Chrome terkini!
Bergelut dengan kelewatan persidangan video Microsoft Teams semasa menggunakan Wi-Fi? Panduan penyelesaian masalah muktamad ini memberikan penyelesaian pantas, petua lanjutan dan pengoptimuman Wi-Fi untuk memulihkan panggilan video yang jelas serta-merta.
Kecewa dengan status Microsoft Teams anda yang tersekat pada Away? Ketahui sebab utama seperti tamat masa melahu dan tetapan kuasa, serta pembetulan langkah demi langkah untuk kembali ke Available dengan pantas. Dikemas kini dengan ciri Teams terkini.
Bergelut dengan Ralat Sertai Mesyuarat Microsoft Teams? Temui langkah-langkah terbukti untuk menyelesaikannya melalui pautan langsung. Penyelesaian pantas untuk penyertaan yang lancar – tiada kemahiran teknikal diperlukan!
Ketahui dengan tepat di mana untuk mencari Kod QR Microsoft Teams untuk log masuk mudah alih yang sangat pantas. Panduan langkah demi langkah dengan visual untuk memudahkan anda berhubung dalam beberapa saat—tiada kata laluan diperlukan!
Bosan dengan ralat main balik media Microsoft Teams yang merosakkan mesyuarat 2026 anda? Ikuti panduan pakar langkah demi langkah kami untuk membetulkan gangguan audio, video dan perkongsian dengan pantas—tiada kemahiran teknikal diperlukan. Kolaborasi yang lancar menanti!
Buka kunci lokasi tepat kunci pendaftaran Microsoft Teams pada Windows 11. Panduan langkah demi langkah untuk mencari, mengakses dan mengubahnya dengan selamat untuk prestasi dan penyelesaian masalah yang optimum. Penting untuk profesional IT dan peminat Teams.
Kecewa dengan gelung permulaan skrin alu-aluan Microsoft Teams? Ikuti langkah penyelesaian masalah yang terbukti untuk gelung permulaan skrin alu-aluan Microsoft Teams kami: kosongkan cache, tetapkan semula aplikasi, pasang semula. Kembali ke kolaborasi yang lancar dalam beberapa minit!
Bergelut dengan Ralat Proksi Microsoft Teams? Ketahui Penyelesaian Masalah Ralat Proksi Microsoft Teams yang terbukti Langkah-langkah pembetulan. Kosongkan cache, laraskan tetapan proksi dan kembali kepada panggilan lancar dalam beberapa minit dengan panduan pakar kami.
Kecewa dengan ikon Microsoft Teams yang hilang dalam Outlook? Ketahui dengan tepat di mana untuk mencarinya, mengapa ia hilang dan langkah-langkah terbukti untuk memulihkannya untuk mesyuarat yang mudah. Dikemas kini untuk versi terkini!
Kecewa dengan Microsoft Teams yang lambat? Ketahui mengapa Microsoft Teams begitu perlahan dan gunakan 10 petua terbukti ini untuk mempercepatkannya secara dramatik pada tahun 2026 untuk kolaborasi yang lancar.
Kuasai cara log masuk ke Pusat Pentadbiran Microsoft Teams dengan betul dengan panduan langkah demi langkah kami yang tepat. Betulkan ralat biasa, pastikan keselamatan dan uruskan Teams dengan mudah untuk pentadbir di mana-mana sahaja.
Temui cara paling mudah untuk memuat turun Microsoft Teams untuk Mac, MacBook Air dan MacBook Pro. Arahan langkah demi langkah, keperluan sistem dan petua penyelesaian masalah untuk pemasangan yang lancar dalam versi terkini. Mulakan sekarang!