IA, Dans 10 ans, tous au chômage :lensois: |
Bienvenue invité ( Connexion | Inscription )
![]() ![]() |
IA, Dans 10 ans, tous au chômage :lensois: |
Hier, 21:05
Message
#181
|
|
![]() expat' crew ![]() ![]() ![]() ![]() Groupe : Adhérents CulturePSG Messages : 12,208 Inscrit : 07/02/2009 Lieu : 78 Membre no 770 Tribune : Non précisée |
Virtual Private Server En gros ta machine. Louer un PC a distance. Le but étant de faire tourner openclaw dessus pour avoir accès 24/24 a tes agents IA personnels et tes fichiers. Mais ces serveurs ont pas de vRAM et souvent peu de stockage, donc tu peux pas faire tourner des modèles locaux, tu dois utiliser la API des IA mainstreams, donc ça coûte très cher. Dans l'idée c'est pour avoir une machine qui tourne tout le temps et a des capacités de vRAM, mais du coup oui il faut louer du GPU comme dans ton lien et plein d'autres. Du coup il faut louer un VPS, et loué du GPU pour ce VPS. Faudrait voir combien ça coûte et les performances, mais bien configuré tu rentabiliser ça très vite par rapport au prix des tokens des API genre chatgpt et Claude. Bon après malheureusement tu as pas nano banana et autres en local Edit Bon j'ai trouvé des trucs mais c'est cher Faut voir avec un raspberry Pi mais niveau stockage c'est nul Mais tu veux faire ça juste pour du perso ou il y a un but de prod derrière ? |
|
|
|
Hier, 21:31
Message
#182
|
|
![]() მორიგე ღმერთი ![]() ![]() ![]() ![]() ![]() ![]() Groupe : Members Messages : 29,197 Inscrit : 17/04/2017 Membre no 11,226 Tribune : Non précisée |
Mais tu veux faire ça juste pour du perso ou il y a un but de prod derrière ? Je vais faire avec un raspberry, un SSD et louer du GPU je pense. Disons que j'aime pas trop filer mes données a openAI, google, les chinois etc Donc j'aimerais bien avoir tout un setup IA en local Et c'est aussi utile pour des projets pro oui |
|
|
|
Hier, 22:53
Message
#183
|
|
![]() expat' crew ![]() ![]() ![]() ![]() Groupe : Adhérents CulturePSG Messages : 12,208 Inscrit : 07/02/2009 Lieu : 78 Membre no 770 Tribune : Non précisée |
Je vais faire avec un raspberry, un SSD et louer du GPU je pense. Disons que j'aime pas trop filer mes données a openAI, google, les chinois etc Donc j'aimerais bien avoir tout un setup IA en local Et c'est aussi utile pour des projets pro oui Ton pi je vois pas trop ce qu'il va faire là dedans ? Ça va te faire un énorme bottleneck pour utiliser le GPU en ligne, sauf si c'est pour juste transmettre du prompt . Mais si ce que tu veux c'est une IA sur tes documents chaque fois que tu vas quitter le GPU en ligne il va perdre le contexte. |
|
|
|
Hier, 23:52
Message
#184
|
|
![]() მორიგე ღმერთი ![]() ![]() ![]() ![]() ![]() ![]() Groupe : Members Messages : 29,197 Inscrit : 17/04/2017 Membre no 11,226 Tribune : Non précisée |
Ton pi je vois pas trop ce qu'il va faire là dedans ? Ça va te faire un énorme bottleneck pour utiliser le GPU en ligne, sauf si c'est pour juste transmettre du prompt . Mais si ce que tu veux c'est une IA sur tes documents chaque fois que tu vas quitter le GPU en ligne il va perdre le contexte. Openclaw tournera sur mon Pi, et il utilisera du GPU quand le modèle local (nul) lui dira. Le contexte et la mémoire persistante est stockée localement, pareil avec Claude Code. Le seul truc relou c'est le reboot du GPU qui met 1-2 minutes si j'ai détruit mon instance. Et oui c'est quasi que du prompt a transmettre, mais avec un contexte et une mémoire. Dans le pire des cas c'est que qq Monde documents en supplément, ce sera jamais une vidéo de 2Go que je file au GPU, et même dans ce cas là c'est pas hyper long |
|
|
|
![]() ![]() |
| Version bas débit | Nous sommes le : 17/02/2026 06:52 |