Microsoft menambah GPT-4 Turbo LLM kepada versi percuma Copilot
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Dengan LLM kuantum kini tersedia pada ekosistem HuggingFace dan AI seperti H20, Text Gen dan GPT4All yang membolehkan anda memuatkan pemberat LLM pada komputer anda, kini anda mempunyai pilihan untuk AI percuma, fleksibel dan selamat. Berikut ialah 9 LLM tempatan/luar talian terbaik yang boleh anda cuba sekarang!
Jadual Kandungan
Hermes 2 Pro ialah model bahasa lanjutan yang diperhalusi oleh Nous Research. Ia menggunakan versi set data OpenHermes 2.5 yang dikemas kini dan dikecilkan, bersama-sama dengan set data Panggilan Fungsi dan JSON yang baru diperkenalkan yang dibangunkan oleh syarikat itu sendiri. Model ini berdasarkan seni bina Mistral 7B dan telah dilatih pada 1,000,000 arahan/perbualan kualiti GPT-4 atau lebih baik, kebanyakannya data sintetik.
Model |
Hermes 2 Pro GPTQ |
---|---|
Saiz model |
7.26 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Mistral |
Lesen |
Apache 2.0 |
Hermes 2 Pro pada Mistral 7B ialah model Hermes 7B perdana baharu, menawarkan prestasi yang dipertingkatkan merentas pelbagai penanda aras, termasuk AGIEval, BigBench Reasoning, GPT4All dan TruthfulQA. Keupayaan canggihnya menjadikannya sesuai untuk banyak tugas pemprosesan bahasa semula jadi (NLP), seperti penjanaan kod, penciptaan kandungan dan aplikasi AI perbualan.
Zephyr ialah satu siri model bahasa yang dilatih untuk bertindak sebagai pembantu yang membantu. Zephyr-7B-Beta ialah model kedua dalam siri ini, diperhalusi daripada Mistral-7B-v0.1 menggunakan Pengoptimuman Keutamaan Terus (DPO) pada campuran set data sintetik yang tersedia untuk umum.
Model |
Zephyr 7B Beta |
---|---|
Saiz model |
7.26 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Mistral |
Lesen |
Apache 2.0 |
Dengan menghapuskan penjajaran terbina dalam set data latihan, Zephyr-7B-Beta menunjukkan prestasi yang lebih baik pada penanda aras seperti MT-Bench, meningkatkan kegunaannya dalam pelbagai tugas. Walau bagaimanapun, pelarasan ini boleh membawa kepada penjanaan teks yang bermasalah apabila digesa dengan cara tertentu.
Versi terkuantiti Falcon ini adalah berdasarkan seni bina penyahkod sahaja yang diperhalusi pada model mentah Falcon-7b TII. Model Falcon asas dilatih menggunakan 1.5 trilion token tertunggak yang diperoleh daripada Internet awam. Sebagai model penyahkod berasaskan arahan berlesen Apache 2 sahaja, Falcon Instruct sesuai untuk perniagaan kecil yang mencari model untuk digunakan untuk terjemahan bahasa dan pengingesan data.
Model |
Falcon-7B-Arahan |
---|---|
Saiz model |
7.58 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
Falcon |
Lesen |
Apache 2.0 |
Walau bagaimanapun, versi Falcon ini tidak sesuai untuk penalaan halus dan hanya bertujuan untuk inferens. Jika anda ingin memperhalusi Falcon, anda perlu menggunakan model mentah, yang mungkin memerlukan akses kepada perkakasan latihan gred perusahaan seperti NVIDIA DGX atau AMD Instinct AI Accelerators.
GPT4All-J Groovy ialah model penyahkod sahaja yang ditala oleh Nomic AI dan dilesenkan di bawah Apache 2.0. GPT4ALL-J Groovy adalah berdasarkan model GPT-J asal, yang diketahui hebat dalam menjana teks daripada gesaan. GPT4ALL -J Groovy telah diubah suai kepada model perbualan, yang bagus untuk aplikasi penjanaan teks yang pantas dan kreatif. Ini menjadikan GPT4All-J Groovy sesuai untuk pencipta kandungan dalam membantu mereka dengan penulisan dan gubahan mereka, sama ada puisi, muzik atau cerita.
Model |
GPT4ALL-J Groovy |
---|---|
Saiz model |
3.53 GB |
Parameter |
7 bilion |
Kuantisasi |
4-bit |
taip |
GPT-J |
Lesen |
Apache 2.0 |
Malangnya, model GPT-J garis dasar telah dilatih pada set data bahasa Inggeris sahaja, yang bermaksud bahawa model GPT4ALL-J yang diperhalusi ini hanya boleh bercakap dan melaksanakan aplikasi penjanaan teks dalam bahasa Inggeris.
DeepSeek Coder V2 ialah model bahasa lanjutan yang meningkatkan pengaturcaraan dan penaakulan matematik. DeepSeek Coder V2 menyokong berbilang bahasa pengaturcaraan dan menawarkan panjang konteks lanjutan, menjadikannya alat serba boleh untuk pembangun.
Model |
DeepSeek Coder V2 Arahan |
---|---|
Saiz model |
13 GB |
Parameter |
33 bilion |
Kuantisasi |
4-bit |
taip |
DeepSeek |
Lesen |
Apache 2.0 |
Berbanding dengan pendahulunya, DeepSeek Coder V2 menunjukkan peningkatan ketara dalam tugas yang berkaitan dengan kod, penaakulan dan keupayaan umum. Ia melanjutkan sokongan untuk bahasa pengaturcaraan daripada 86 kepada 338 dan memanjangkan panjang konteks daripada 16K kepada 128K token. Dalam penanda aras, ia mengatasi model seperti GPT-4 Turbo, Claude 3 Opus dan Gemini 1.5 Pro dalam penanda aras kriptografi dan matematik.
Mixtral-8x7B ialah gabungan model pakar (MoE) yang dibangunkan oleh Mistral AI. Ia mempunyai 8 pakar setiap MLP, berjumlah 45 bilion parameter. Walau bagaimanapun, hanya dua pakar diaktifkan setiap token semasa inferens, menjadikannya cekap dari segi pengiraan, dengan kelajuan dan kos yang setanding dengan model parameter 12 bilion.
Model |
Mixtral-8x7B |
---|---|
Saiz model |
12 GB |
Parameter |
45 bilion (8 pakar) |
Kuantisasi |
4-bit |
taip |
Mistral MoE |
Lesen |
Apache 2.0 |
Mixtral menyokong panjang konteks sebanyak 32k token dan mengatasi prestasi Llama 2 sebanyak 70B pada kebanyakan penanda aras, sepadan atau melebihi prestasi GPT-3.5. Ia fasih dalam berbilang bahasa, termasuk Inggeris, Perancis, Jerman, Sepanyol dan Itali, menjadikannya pilihan serba boleh untuk pelbagai tugas NLP.
Wizard-Vicuna GPTQ ialah versi kuantum Wizard Vicuna berdasarkan model LlaMA. Tidak seperti kebanyakan LLM yang dikeluarkan kepada umum, Wizard-Vicuna ialah model yang tidak ditapis dengan perkaitan dialih keluar. Ini bermakna model tersebut tidak mempunyai standard keselamatan dan etika yang sama seperti kebanyakan model lain.
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
Saiz model |
16.94 GB |
Parameter |
30 bilion |
Kuantisasi |
4-bit |
taip |
LlaMA |
Lesen |
GPL 3 |
Walaupun ia mungkin menimbulkan masalah untuk kawalan penjajaran AI, mempunyai LLM yang tidak ditapis juga memberikan yang terbaik dalam model dengan membenarkannya menjawab tanpa sebarang kekangan. Ini juga membolehkan pengguna menambah penjajaran tersuai mereka sendiri tentang cara AI harus bertindak atau bertindak balas berdasarkan gesaan yang diberikan.
Adakah anda ingin menguji model yang dilatih menggunakan kaedah pembelajaran yang unik? Orca Mini ialah pelaksanaan tidak rasmi kertas penyelidikan Orca Microsoft. Model ini dilatih menggunakan pendekatan pembelajaran guru-murid, di mana set data diisi dengan penjelasan dan bukannya gesaan dan respons sahaja. Secara teori, ini sepatutnya menjadikan pelajar lebih bijak, kerana model itu boleh memahami masalah dan bukannya hanya mencari pasangan input dan output kerana LLM konvensional berfungsi.
Llama 2 ialah pengganti kepada Llama LLM yang asal, menawarkan prestasi yang lebih baik dan serba boleh. Varian 13B Chat GPTQ ditala untuk aplikasi AI perbualan yang dioptimumkan untuk dialog bahasa Inggeris.
Beberapa model yang disenaraikan di atas datang dalam pelbagai versi dari segi spesifikasi. Secara umum, versi spesifikasi yang lebih tinggi menghasilkan hasil yang lebih baik tetapi memerlukan perkakasan yang lebih berkuasa, manakala versi spesifikasi yang lebih rendah menghasilkan hasil kualiti yang lebih rendah tetapi boleh dijalankan pada perkakasan yang lebih rendah. Jika anda tidak pasti sama ada PC anda boleh menjalankan model ini, cuba versi spesifikasi yang lebih rendah dahulu, kemudian teruskan sehingga anda merasakan penurunan prestasi tidak lagi boleh diterima.
Tahun 2023 menyaksikan Microsoft bertaruh besar pada kecerdasan buatan dan perkongsiannya dengan OpenAI untuk menjadikan Copilot satu realiti.
Nvidia baru sahaja mengumumkan keluaran model bahasa besar (LLM) sumber terbuka yang dikatakan berprestasi setanding dengan model proprietari terkemuka daripada OpenAI, Anthropic, Meta dan Google.
Foxconn, syarikat yang paling terkenal dalam pembuatan iPhone dan produk perkakasan Apple yang lain, baru sahaja mengejutkan semua orang dengan mengumumkan model bahasa besar (LLM) pertamanya, dipanggil FoxBrain, yang bertujuan untuk digunakan untuk meningkatkan pengurusan pembuatan dan rantaian bekalan.
Kempen serangan baharu yang menyebarkan perisian hasad melalui hasil carian Google telah ditemui oleh pakar keselamatan daripada Palo Alto Networks.
Google menambah ciri baharu yang kecil tetapi lama ditunggu-tunggu pada Gedung Play.
Selepas Tim Cook mengambil alih sebagai Ketua Pegawai Eksekutif pada 2011, dalam usaha mengekalkan kepercayaan orang ramai terhadap Apple, beliau mengekalkan pekerja kanan dengan membayar mereka tanpa memerlukan mereka bekerja.
Dead Pool ialah salah satu kawasan bertemakan Mortal Kombat yang ditambahkan pada Fortnite sejak kemas kini v34.21.
Sekiranya anda menggunakan telefon anda semasa guruh dan kilat? Bolehkah isyarat telefon bimbit disambar petir? Adakah telefon dalam mod kapal terbang tetapi masih menggunakan wifi menarik kilat?
Penyelidikan baru oleh pasukan penyelidik dari Australia dan China menunjukkan bahawa hujan pertama muncul di Bumi sekitar 4 bilion tahun yang lalu, 500 juta tahun lebih awal daripada yang disangkakan sebelumnya.
Objek ini terletak di kawasan Chernobyl, Ukraine, hasil daripada kebocoran radioaktif yang paling mengerikan dalam sejarah. Objek ini berbentuk seperti kaki gergasi, maka ia dipanggil Kaki Gajah.
Kod Permainan Chu Cong Xung Xung Xung membolehkan pemain menerima sokongan apabila mereka mula-mula memasuki permainan. Ganjaran ini akan membantu anda membiasakan diri dengan permainan dengan lebih cepat dan pasti akan menarik pemain baharu. Masukkan kod permainan Chu Cong Xung Xung Xung di bawah untuk menerima hadiah.
Dengan LLM kuantum kini tersedia pada ekosistem HuggingFace dan AI seperti H20, Text Gen dan GPT4All yang membolehkan anda memuatkan pemberat LLM pada komputer anda, kini anda mempunyai pilihan untuk AI percuma, fleksibel dan selamat.
Perakam suara lalai pada telefon Android adalah cacat, kekurangan ciri penting seperti pembatalan hingar yang berkesan dan alat penyuntingan yang berkuasa.
Menetapkan tahap kelantangan lalai untuk setiap aplikasi adalah berguna dalam beberapa kes, seperti anda sedang menonton video menggunakan aplikasi Youtube dan ingin mengurangkan kelantangan nada dering dan nada mesej agar tidak diganggu.
Kilauan merah jambu dan pengilat kuku merah amat sesuai untuk kuku Hari Valentine. Apa yang lebih baik daripada itu? Artikel ini akan meringkaskan untuk anda reka bentuk kuku yang cantik untuk tarikh manis pada Hari Valentine.
Di bawah ialah status tentang mengubah diri anda dan kapsyen tentang mengubah diri anda yang akan membantu anda mempunyai lebih banyak motivasi untuk menyesuaikan diri dengan perubahan kehidupan.
Lewat Jun lalu, Bloomberg melaporkan bahawa Apple telah memulakan pembangunan pada iOS 19, macOS 16, watchOS 12, dan VisionOS 3 untuk tahun depan.
Pembangun NTDEV telah mencipta versi Windows 11 yang dilucutkan iaitu hanya 100MB.