Microsoft menambah GPT-4 Turbo LLM kepada versi percuma Copilot
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Dengan LLM kuantum kini tersedia pada ekosistem HuggingFace dan AI seperti H20, Text Gen dan GPT4All yang membolehkan anda memuatkan pemberat LLM pada komputer anda, kini anda mempunyai pilihan untuk AI percuma, fleksibel dan selamat. Berikut ialah 9 LLM tempatan/luar talian terbaik yang boleh anda cuba sekarang!
Jadual Kandungan
Hermes 2 Pro ialah model bahasa lanjutan yang diperhalusi oleh Nous Research. Ia menggunakan versi set data OpenHermes 2.5 yang dikemas kini dan dikecilkan, bersama-sama dengan set data Panggilan Fungsi dan JSON yang baru diperkenalkan yang dibangunkan oleh syarikat itu sendiri. Model ini berdasarkan seni bina Mistral 7B dan telah dilatih pada 1,000,000 arahan/perbualan kualiti GPT-4 atau lebih baik, kebanyakannya data sintetik.
Model |
Hermes 2 Pro GPTQ |
---|---|
Saiz model |
7.26 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Mistral |
Lesen |
Apache 2.0 |
Hermes 2 Pro pada Mistral 7B ialah model Hermes 7B perdana baharu, menawarkan prestasi yang dipertingkatkan merentas pelbagai penanda aras, termasuk AGIEval, BigBench Reasoning, GPT4All dan TruthfulQA. Keupayaan canggihnya menjadikannya sesuai untuk banyak tugas pemprosesan bahasa semula jadi (NLP), seperti penjanaan kod, penciptaan kandungan dan aplikasi AI perbualan.
Zephyr ialah satu siri model bahasa yang dilatih untuk bertindak sebagai pembantu yang membantu. Zephyr-7B-Beta ialah model kedua dalam siri ini, diperhalusi daripada Mistral-7B-v0.1 menggunakan Pengoptimuman Keutamaan Terus (DPO) pada campuran set data sintetik yang tersedia untuk umum.
Model |
Zephyr 7B Beta |
---|---|
Saiz model |
7.26 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Mistral |
Lesen |
Apache 2.0 |
Dengan menghapuskan penjajaran terbina dalam set data latihan, Zephyr-7B-Beta menunjukkan prestasi yang lebih baik pada penanda aras seperti MT-Bench, meningkatkan kegunaannya dalam pelbagai tugas. Walau bagaimanapun, pelarasan ini boleh membawa kepada penjanaan teks yang bermasalah apabila digesa dengan cara tertentu.
Versi terkuantiti Falcon ini adalah berdasarkan seni bina penyahkod sahaja yang diperhalusi pada model mentah Falcon-7b TII. Model Falcon asas dilatih menggunakan 1.5 trilion token tertunggak yang diperoleh daripada Internet awam. Sebagai model penyahkod berasaskan arahan berlesen Apache 2 sahaja, Falcon Instruct sesuai untuk perniagaan kecil yang mencari model untuk digunakan untuk terjemahan bahasa dan pengingesan data.
Model |
Falcon-7B-Arahan |
---|---|
Saiz model |
7.58 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Falcon |
Lesen |
Apache 2.0 |
Walau bagaimanapun, versi Falcon ini tidak sesuai untuk penalaan halus dan hanya bertujuan untuk inferens. Jika anda ingin memperhalusi Falcon, anda perlu menggunakan model mentah, yang mungkin memerlukan akses kepada perkakasan latihan gred perusahaan seperti NVIDIA DGX atau AMD Instinct AI Accelerators.
GPT4All-J Groovy ialah model penyahkod sahaja yang ditala oleh Nomic AI dan dilesenkan di bawah Apache 2.0. GPT4ALL-J Groovy adalah berdasarkan model GPT-J asal, yang diketahui hebat dalam menjana teks daripada gesaan. GPT4ALL -J Groovy telah diubah suai kepada model perbualan, yang bagus untuk aplikasi penjanaan teks yang pantas dan kreatif. Ini menjadikan GPT4All-J Groovy sesuai untuk pencipta kandungan dalam membantu mereka dengan penulisan dan gubahan mereka, sama ada puisi, muzik atau cerita.
Model |
GPT4ALL-J Groovy |
---|---|
Saiz model |
3.53 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
GPT-J |
Lesen |
Apache 2.0 |
Malangnya, model GPT-J garis dasar telah dilatih pada set data bahasa Inggeris sahaja, yang bermaksud bahawa model GPT4ALL-J yang diperhalusi ini hanya boleh bercakap dan melaksanakan aplikasi penjanaan teks dalam bahasa Inggeris.
DeepSeek Coder V2 ialah model bahasa lanjutan yang meningkatkan pengaturcaraan dan penaakulan matematik. DeepSeek Coder V2 menyokong berbilang bahasa pengaturcaraan dan menawarkan panjang konteks lanjutan, menjadikannya alat serba boleh untuk pembangun.
Model |
DeepSeek Coder V2 Arahan |
---|---|
Saiz model |
13 GB |
Parameter |
33 bilion |
Kuantisasi |
4-bit |
taip |
DeepSeek |
Lesen |
Apache 2.0 |
Berbanding dengan pendahulunya, DeepSeek Coder V2 menunjukkan peningkatan ketara dalam tugas yang berkaitan dengan kod, penaakulan dan keupayaan umum. Ia melanjutkan sokongan untuk bahasa pengaturcaraan daripada 86 kepada 338 dan memanjangkan panjang konteks daripada 16K kepada 128K token. Dalam penanda aras, ia mengatasi model seperti GPT-4 Turbo, Claude 3 Opus dan Gemini 1.5 Pro dalam penanda aras kriptografi dan matematik.
Mixtral-8x7B ialah gabungan model pakar (MoE) yang dibangunkan oleh Mistral AI. Ia mempunyai 8 pakar setiap MLP, berjumlah 45 bilion parameter. Walau bagaimanapun, hanya dua pakar diaktifkan setiap token semasa inferens, menjadikannya cekap dari segi pengiraan, dengan kelajuan dan kos yang setanding dengan model parameter 12 bilion.
Model |
Mixtral-8x7B |
---|---|
Saiz model |
12 GB |
Parameter |
45 bilion (8 pakar) |
Kuantisasi |
4-bit |
taip |
Mistral MoE |
Lesen |
Apache 2.0 |
Mixtral menyokong panjang konteks sebanyak 32k token dan mengatasi prestasi Llama 2 sebanyak 70B pada kebanyakan penanda aras, sepadan atau melebihi prestasi GPT-3.5. Ia fasih dalam berbilang bahasa, termasuk Inggeris, Perancis, Jerman, Sepanyol dan Itali, menjadikannya pilihan serba boleh untuk pelbagai tugas NLP.
Wizard-Vicuna GPTQ ialah versi kuantum Wizard Vicuna berdasarkan model LlaMA. Tidak seperti kebanyakan LLM yang dikeluarkan kepada umum, Wizard-Vicuna ialah model yang tidak ditapis dengan perkaitan dialih keluar. Ini bermakna model tersebut tidak mempunyai standard keselamatan dan etika yang sama seperti kebanyakan model lain.
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
Saiz model |
16.94 GB |
Parameter |
30 bilion |
Kuantisasi |
4-bit |
taip |
LlaMA |
Lesen |
GPL 3 |
Walaupun ia mungkin menimbulkan masalah untuk kawalan penjajaran AI, mempunyai LLM yang tidak ditapis juga memberikan yang terbaik dalam model dengan membenarkannya menjawab tanpa sebarang kekangan. Ini juga membolehkan pengguna menambah penjajaran tersuai mereka sendiri tentang cara AI harus bertindak atau bertindak balas berdasarkan gesaan yang diberikan.
Adakah anda ingin menguji model yang dilatih menggunakan kaedah pembelajaran yang unik? Orca Mini ialah pelaksanaan tidak rasmi kertas penyelidikan Orca Microsoft. Model ini dilatih menggunakan pendekatan pembelajaran guru-murid, di mana set data diisi dengan penjelasan dan bukannya gesaan dan respons sahaja. Secara teori, ini sepatutnya menjadikan pelajar lebih bijak, kerana model itu boleh memahami masalah dan bukannya hanya mencari pasangan input dan output kerana LLM konvensional berfungsi.
Llama 2 ialah pengganti kepada Llama LLM yang asal, menawarkan prestasi yang lebih baik dan serba boleh. Varian 13B Chat GPTQ ditala untuk aplikasi AI perbualan yang dioptimumkan untuk dialog bahasa Inggeris.
Beberapa model yang disenaraikan di atas datang dalam pelbagai versi dari segi spesifikasi. Secara umum, versi spesifikasi yang lebih tinggi menghasilkan hasil yang lebih baik tetapi memerlukan perkakasan yang lebih berkuasa, manakala versi spesifikasi yang lebih rendah menghasilkan hasil kualiti yang lebih rendah tetapi boleh dijalankan pada perkakasan yang lebih rendah. Jika anda tidak pasti sama ada PC anda boleh menjalankan model ini, cuba versi spesifikasi yang lebih rendah dahulu, kemudian teruskan sehingga anda merasakan penurunan prestasi tidak lagi boleh diterima.
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Nvidia baru sahaja mengumumkan keluaran model bahasa besar (LLM) sumber terbuka yang dikatakan berprestasi setanding dengan model proprietari terkemuka daripada OpenAI, Anthropic, Meta dan Google.
Foxconn, syarikat yang paling terkenal dalam pembuatan iPhone dan produk perkakasan Apple yang lain, baru sahaja mengejutkan semua orang dengan mengumumkan model bahasa besar (LLM) pertamanya, dipanggil FoxBrain, yang bertujuan untuk digunakan untuk meningkatkan pengurusan pembuatan dan rantaian bekalan.
TV pintar benar-benar telah melanda dunia. Dengan begitu banyak ciri hebat dan sambungan internet, teknologi telah mengubah cara kita menonton TV.
Peti sejuk adalah peralatan biasa dalam isi rumah. Peti ais biasanya mempunyai 2 kompartmen iaitu ruang sejuk yang luas dan mempunyai lampu yang menyala secara automatik setiap kali pengguna membukanya, manakala ruang peti sejuk beku pula sempit dan tiada cahaya.
Rangkaian Wi-Fi dipengaruhi oleh banyak faktor di luar penghala, lebar jalur dan gangguan, tetapi terdapat beberapa cara pintar untuk meningkatkan rangkaian anda.
Jika anda ingin kembali kepada iOS 16 yang stabil pada telefon anda, berikut ialah panduan asas untuk menyahpasang iOS 17 dan menurunkan taraf daripada iOS 17 kepada 16.
Yogurt adalah makanan yang indah. Adakah baik untuk makan yogurt setiap hari? Apabila anda makan yogurt setiap hari, bagaimana badan anda akan berubah? Mari kita ketahui bersama!
Artikel ini membincangkan jenis beras yang paling berkhasiat dan cara memaksimumkan manfaat kesihatan bagi mana-mana beras yang anda pilih.
Menetapkan jadual tidur dan rutin waktu tidur, menukar jam penggera anda dan melaraskan diet anda ialah beberapa langkah yang boleh membantu anda tidur dengan lebih lena dan bangun tepat pada waktunya pada waktu pagi.
Tolong Sewa! Landlord Sim ialah permainan mudah alih simulasi pada iOS dan Android. Anda akan bermain sebagai tuan tanah kompleks pangsapuri dan mula menyewa sebuah apartmen dengan matlamat untuk menaik taraf bahagian dalam pangsapuri anda dan menyediakannya untuk penyewa.
Dapatkan kod permainan Bathroom Tower Defense Roblox dan tebus untuk ganjaran yang menarik. Mereka akan membantu anda menaik taraf atau membuka kunci menara dengan kerosakan yang lebih tinggi.
Mari belajar tentang struktur, simbol dan prinsip operasi transformer dengan cara yang paling tepat.
Daripada kualiti gambar dan bunyi yang lebih baik kepada kawalan suara dan banyak lagi, ciri dikuasakan AI ini menjadikan TV pintar lebih baik!
Pada mulanya, orang ramai menaruh harapan yang tinggi untuk DeepSeek. Sebagai chatbot AI yang dipasarkan sebagai pesaing kuat kepada ChatGPT, ia menjanjikan keupayaan dan pengalaman sembang pintar.
Sangat mudah untuk terlepas butiran penting semasa mencatat perkara penting lain, dan cuba mencatat nota semasa bersembang boleh mengganggu. Fireflies.ai adalah penyelesaiannya.
Axolot Minecraft akan menjadi pembantu yang hebat untuk pemain semasa beroperasi di bawah air jika mereka tahu cara menggunakannya.
Tempat yang Tenang: Konfigurasi The Road Ahead dinilai agak tinggi, jadi anda perlu mempertimbangkan konfigurasi sebelum membuat keputusan untuk memuat turun.