Salut à tous,
Encore une question de débutant !
Je me demande une chose concernant les alim DC d'une puissance de 2 ou 3 A à quelques euros que l'on peut trouver sur le net : que se passe-t-il si on y branche un appareil genre Smartphone ou appareil photo pour le recharger ? Le système va t-il s’adapter tout seul pour ne pas dépasser la capacité du transfo, ou y a t-il un réel risque de cramer l'alim et le périphérique rechargé ?
En général l'appareil à recharger possède le circuit de charge. C'est lui qui limite le courant.
Si l'appareil à recharger demande un courant plus important que ce que peut fournir le bloc secteur, c'est le bloc secteur qui limite le courant, et l'appareil se contente de ce qu'on lui donne.
Le risque que vous avez est surtout si le chargeur à quelques euros est constitué de composants merdiques qui sont sous dimensionnés pour le courant max ou s'ils ont pris des raccourcis sur la dissipation thermique.
Un bon "chargeur" doit être capable de résister sans dommage à la fois aux aléas du réseau électrique (surtensions, courts-circuits, appels forts de courants d'enclenchement et surcharges) mais aussi aux contraintes mécaniques que vous lui ferez subir.
La norme CE vous protège normalement sur les trucs de base, mais il y a sans doutes des tricheurs qui apposent le logo CE sur des produits fabriqué "pendant la 25ème heure de la journée" et tombés du camions ensuite...
Se payer "une marque" ou réutiliser des alimentations d'origine de produits de marque (Samsung, Apple, HP, Dell, ...) généralement vous permet de dormir tranquille (mais on l'a vu avec les explosion de batterie Samsung - même les très grands producteurs ne sont pas à l'abri d'erreurs - mais c'est suivi et les produits sont échangés si le moindre risque est détecté).
perso quand je ne réutilise pas un chargeur d'un de mes vieux smartphone, j'utilise du MeanWell, la RS-15-5 en 5V 3A (donc 15W) à 15€ est pas mal pour plein de petits projets
elles existent aussi en 3.3V ou 12V, 24V et 48V
il en ont aussi des plus grandes.
Il y a une différence entre un chargeur et une alimentation à découpage :
Un "vrai" chargeur limite son courant de sortie si la demande en courant est trop importante.
Une alimentation à découpage coupe sa sortie. Elle se met en sécurité.
Il en découle qu'une alim à découpage, si on l'utilise comme chargeur, doit être surdimensionnée en courant par rapport aux besoins du circuit de charge de l'appareil.
Pour une quinzaine d'€ MeanWell fabrique aussi des blocs secteur sérieux :
GS15E-1P1J 5V 2.4A
GS25E05-P1J 5V 4A
tout à fait ! (d'où les 3 amps pour l'alim à découpage)
Absolument ;D
Merci à vous ! J'en déduis donc que grâce à une mise en sécurité coté chargeur, et une limitation intégrée coté appareil, si le chargeur ne chauffe pas, il n'y a pas de réel danger. Et merci aussi pour les références.
En fait, je me posais la question par rapport à un appareil dont on a pas la moindre idée de la limite de consommation (genre Smartphone avec l'alim oubliée chez Mamie).
Autre exemple : un smartphone qui essaie de pomper 2A sur un port USB de PC limité à 500mA se contentera de ces 500mA. La charge durera 4 fois plus longtemps, c'est tout.
C'est là où je butte un peu : dans la plupart des tuto Arduino, il est bien dit qu'il faut faire attention de ne pas demander plus de 500 mA à un port USB de PC, sous peine de "cramage" dudit port USB.
Or, on dirait que certains appareils sont capables de limiter leur demande à ce qui est dispo. Comment font-ils sans cramer la source ? (désolé je suis très curieux)
faire attention de ne pas demander plus de 500 mA à un port USB de PC, sous peine de "cramage" dudit port USB.
Si c'était le cas, mon port USB serait cramé depuis longtemps, et je ne suis pas le seul. Si on le charge trop, le 5V du port USB s'écroule.
Vu le nombre de questions que l'on a sur ce forum du type "Mon montage
La charge de batterie LITHIUM-ION se fait à tension constante mais courant variable.
Si le chargeur n'est pas capable de fournir le courant demandé sa tension chute, comme avec une alimentation limitée en courant.
Je charge couramment deux batteries 18650 (chargeur XTAR MC2 2x500mA) sur un port USB USB3 (900mA).
Si le port USB3 n'est pas disponible, je branche le chargeur sur un port USB2. Le courant tombe automatiquement à 500mA. La charge dure plus longtemps, c'est tout.
Par contre je ne garantis pas que tous les PC sont bien protégés côté USB.
Bon, ben même s'il semble manquer un petit bout de la réponse, c'est plus clair. Merci beaucoup.
En fait je dois me tromper et faire un amalgame entre demander trop de courant et faire un court-circuit.
Les périphériques USB 3 peuvent bénéficier d’une puissance allant jusqu’à 900 mA au lieu de 500 mA pour les périphériques USB 2.
Vous devez cependant utiliser un câble USB 3 pour bénéficier d’une puissance de 900 mA - Les câbles USB 2 ne vous le permettent pas.
Les Mac ou PC de marque récent détectent cela et gèrent la puissance fournie.
Les Macs se mettent automatiquement en sécurité et coupent la puissance au delà et affichent un message à l’utilisateur disant que l’appareil demande trop de courant - donc vous ne grillez pas votre/vos ports.
Sur PC... j’en sais rien
Si vous voulez être tranquille, mettez un hub USB 2 alimenté séparément par un chargeur (USB2 suffit même si vous avez des ports usb3 sur votre ordi parce que ce n’est pas bien de donner plus de 500mA de toutes façons à votre Arduino) entre votre PC et Arduino - comme cela vous ne risquez pas de griller le poet de l’ordinateur en cas de fausse manipulation, c’est le hub qui prendra le choc mais c’est moins cher à remplacer que votre ordi
J-M-L:
Les périphériques USB 3 peuvent bénéficier d’une puissance allant jusqu’à 900 mA au lieu de 500 mA pour les périphériques USB 2.Vous devez cependant utiliser un câble USB 3 pour bénéficier d’une puissance de 900 mA - Les câbles USB 2 ne vous le permettent pas.
Ça, je ne le savais pas. Je me coucherai en ayant appris un nouveau truc ce soir. Merci de l'info.
J-M-L:
Si vous voulez être tranquille, mettez un hub USB 2 alimenté séparément par un chargeur (USB2 suffit même si vous avez des ports usb3 sur votre ordi parce que ce n’est pas bien de donner plus de 500mA de toutes façons à votre Arduino) entre votre PC et Arduino - comme cela vous ne risquez pas de griller le poet de l’ordinateur en cas de fausse manipulation, c’est le hub qui prendra le choc mais c’est moins cher à remplacer que votre ordi
C'est en effet une des premières précautions que j'ai prise : un petit hub USB3 chinois alimenté, avec des petits interrupteurs sur chaque port. Comme ça mes Raspberry chéris et ma tour ne risquent rien. Et le pire, c'est qu'il marche très bien, est très rapide et me permet d'alimenter l'Arduino avec un interrupteur. Comme ça je peux l'éteindre sans le débrancher pendant que je programme. Le luxe ! Vu le prix, s'il part au paradis des Hub, ce ne sera pas bien grave...
https://www.amazon.fr/gp/product/B075DDG7VD
Edit : juste pour info, j'ai été à fond pour le Mac de 1984 jusqu'à l'instauration des iBidules, où j'ai vu la philosophie du constructeur changer complètement. Là, j'ai décidé de ne pas participer à l'abrutissement de la population et me suis tourné vers Linux (il était hors de question que j'adopte Windows). Depuis, non seulement je n'ai aucun regret, mais je découvre chaque jour de nouvelles raisons d'utiliser et promouvoir l'open-source. Et pour revenir au sujet, "Mac" ou "PC" utilisent majoritairement le même hardware, donc les ports USB doivent réagir de la même façon.
Et pour revenir au sujet, "Mac" ou "PC" utilisent majoritairement le même hardware, donc les ports USB doivent réagir de la même façon.
non c'est du firmware + hardware -> Il y a des puces dédiées au contrôle du courant.
les bons PC en ont aussi mais c'est un coût, donc parfois certains font l'impasse , d'où les risques.
Pour ma part, Je garde linux pour le monde serveur - la productivité pour les tâches quotidiennes sur le mac est juste incomparable
Ce qui abrutit le monde c'est plutôt facebook instagram et autres réseaux sociaux et toute la marchandisation associée des données personnelles. La pomme n'est pas dans cette mouvance, plutôt le contraire (par exemple de l'impact de leurs décisions sur les traqueurs pour notre licorne publicitaire il y a 2 ans) - et perso je préfère payer plus chers mes produits et ne pas vendre mon âme au dieu de la publicité et ses dérives manipulatrices (à voir le documentaire "The Great Hack ")
</hors sujet>
Je croyais que ce genre de puce, s'il existait, devait être greffé sur le design de base des contrôleurs USB. Encore une illusion qui s'envole...
Certes, il y a des degrés dans l'horreur du monde à venir, mais je pensais pas aux usages complètement abrutissants actuels liées aux "réseaux sociaux" qui ne sont pour la plupart qu'un concours de défilé de nombrils, mais plutôt à la transformation d'un poste de travail informatique en terminal de consommation de contenu prédigéré, sans réelle possibilité de développer son esprit créatif comme j'ai pu le connaître il y a bien longtemps. Combien de tablettes et Smartphones vendus pour un poste de travail ? Et combien de temps avant que ce poste de travail soit totalement bridé pour ne faire que ce que le constructeur nous autorise à y faire et pendant la durée qu'il aura décidé ?votre second point est plus complexe qu’il n’y parait.
d’une part le mac est toujours ouvert et les nouvelles sécurités débrayables par l’utilisateur donc de ce côté rien n’a changé si ce n’est une plus grande protection par défaut, ce qui n’est pas inutile dans le monde actuel
Pour iOS c’est vrai que c’est largement plus compliqué; je pense que ça vient d’une volonté d’éviter de retomber dans le merdier où nous étions sous Windows avec virus, adware et ransomware en permanence, dans un monde où le très grand public allait avoir un petit appareil embarquant une grande partie de sa vie privée, toujours allumé _ même en avion _ et quasiment toujours connecté. L’équilibre entre design et puissance de la batterie qui doit durer environ la journée ainsi que le maintient de l’enveloppe thermique impose des choix sur la gestion du multitâche (pas trop chaud pour ne pas faire peter la batterie Lithium Ion), le design des puces arm en espace relativement étroit imposé d’avoir la ram embarquée au sein du micro-processeur + challenges d’usure « flash » et imposait des contraintes au niveau gestion du swap. 10 ans plus tard s’il y avait la possibilité de ré développer un OS mobile, les choses seraient sans doute différentes mais c’est quasiment impossible vu l’écosystème de millions d’apps dépendant des API existantes. Microsoft et Samsung n’ont pas réussi avec leur OS mobile; il faudra attendre un gap important technologique pour que cela arrive comme on la vu dans le monde du PC.
De plus la faible surface d’interaction avec l’utilisateur en a fait effectivement plus un outil de consommation de contenu que de création, mais cela commence à changer notamment sur le multimédia (films, présentations, photos,...)
Cote développement vous ne programmez pas sur ces iBidules, notamment pour les problèmes évoqués plus haut (la chaîne de compilation est hyper gourmande et développer les outils de dev sur petit écran cher et compliqué surtout si vous les mettez gratuitement à disposition ensuite), mais sur un mac. il y a des millions d’apps, les outils de dev sont gratuits et Xcode vous permet de développer pour mac et les iBidules avec un simulateur embarqué très pratique ainsi que des tas d’outils de monitoring (instrumentation/débug) d’un processus attaché sur un iBidule
Enfin le choix qu’ils ont fait d’avoir une architecture où chaque process doit être signé par un développeur connu si vous voulez distribuer votre app à plus de 100 appareils est le choix le plus clivant. J’imagine qu’il résulte d’une volonté de protéger la plateforme et ses utilisateurs incompétents en informatique des attaques en tout genre plus que d’une volonté égémonique de contrôle des apps et de rentabilité (Vous pouvez aussi distribuer sur l’AppStore gratuitement si vous voulez après vérification que vous ne propagez pas un malware). Choix difficile que Google a moqué au départ mais finalement Microsoft et Google font pareil maintenant, le risque juridique et financier que leur responsabilité soit recherchée en cas d’attaque est super important.
un des plus grand risque en cours en ce moment c’est du massive denial of service attack avec des dizaine de millions d’appareils qui pourraient ensemble attaquer une infrastructure d’état ou privée, chaque appareil étant sur un point d’accès distribué indépendant et dans l’ensemble du monde.
Pour y répondre il faudrait que tous les opérateurs telecom bloquent le traffic (plus de téléphone en voix sur IP, plus d’internet) - ce serait une catastrophe numérique d’ampleur avec des répercussions sur les vies (enjeux de sécurité). La réponse « simple« » revient à identifier la signature du développeur criminel, révoquer son certificat ce qui aura pour effet (les OS vérifiant souvent la validité de ces certificats) de tuer « assez rapidement » l’application d’attaque. c’est pour cela que les apps sont signées et la distribution en masse contrôlée... donc nécessité de contrôle à priori et à l’exécution ...
long débat, sans doute plus pour le bar qu’ici
C'est vrai que j'ai entamé ce hors sujet quand j'ai vu la comparaison Mac/PC de votre post précédent et je me suis revu 15 ans auparavant quand je partageais le point de vue d'Apple. Il a pris plus de place que je ne m'y attendais...
Votre analyse est pertinente et je la partage sur de nombreux points. Ok, tout le monde ne peut pas être un hackeur et se contente d'être simple spectateur, et donc consommateur. Ceux là doivent être pris, en main, guidés, voire bridés pour leur assurer un usage serein. Le souci, c'est que ce prétexte est utilisé pour justifier l'interdiction de tout ce qui permet aux utilisateurs "avancés" de pouvoir utiliser leur matériel comme ils l'entendent.
Je crains que bientôt il ne faille être un développeur référencé qui paie sa cotisation annuelle pour pouvoir écrire quelques scripts à faire tourner sur nos propres postes de travail.
Coté Mac, je bosse dessus tous les jours et hormis le dev des logiciels iBidule/Androtruc et quelque softs dont seule l’habitude justifie l'emploi (suite MS, suite Adobe,...) tout ce que je fais peut être fait sur une Ubuntu avec la même productivité (ce que je fais chez moi d'ailleurs). Il reste bien la vidéo qui est quand même traitée de manière pro, c'est vrai. Mais dans ce cas, on est plus vraiment dans la même gamme de matériel.
Je n'aime pas l'idée de ne pas contrôler mon ordinateur pour y faire ce qui m’intéresse quand j'en ai envie, sans le contrôle du grand frère par dessus mon épaule. Steeve nous avait pourtant promis que 1984 ne ressemblerait pas à "1984". 2019 me semble pourtant bien pire. Et le seul moteur n'est la sécurité ou la simplicité : c'est posséder un parc captif qui paie sa location.
Je suis triste quand je vois les gamins qui pensent être libres parce qu'il peuvent annoncer au monde entier qu'il ont aimé leur repas...
Et là encore je suis d'accord avec vous : c'est un débat pour un autre lieu.
Merci pour cette conversation stimulante en tous cas.
Oui toutes les dérives sont possibles, mais ce n’est pas ce que j’ai constaté en pratique depuis 10/15 ans sur le mac.
Il leur faut trouver un juste équilibre entre les gardes fous et l’accessibilité pour les ingénieurs et autres bidouilleurs du dimanche (Aujourd’hui les sécurités sont débrayables si vous comprenez ce que vous faites) tout en permettant aux non programmeurs et experts IT d’avoir un environnement sécurisé au sein duquel ils peuvent exprimer leur créativité numérique (au delà de la programmation -> dessin, podcast, musique, photo, animation, films,..);
Je ne crois pas à l’argument de la facturation - L’historique long (20 ans) montre que les outils de dev ont toujours étés gratuits (et de plus en plus avancés - poussant le marché à s’aligner - Souvenez vous du temps où il fallait payer un prix fou pour Visual Studio ou un compilo C++), les mises à jours OS X sont devenues gratuites, puis les logiciels de productivité et créativité personnelle - au delà eu mail, calendrier, agenda (souvenez vous du temps où il fallait payer Outlook ?) vous avez des outils (dont certains utilisables en pro) comme iPhoto, iMovie, pages, numbers, Keynote, reminders, GarageBand etc qui sont aussi devenus gratuits, puis on a eu aussi le backup personnel avec timeMachine, ainsi que la synchro cloud ou l’intégration gratuite dans tous les outils logiciels et OS pour les situations de handicap... donc la tendance sur 15 ans montre plutôt une autre direction que celle que vous évoquez.
Une autre façon de voir c’est aussi dire que c’est intégré au prix de la plateforme bien sûr - mais on trouve toujours un mac pour « 10,000 francs » [1500€] comme à l’époque - donc si un jour il y a dérive importante qui me semblerait inadmissible je reverrais ma position, mais pour le moment je ne me sens pas contraint du tout et bcp plus productif que sur Linux.
Sur les OS mobiles les enjeux sont d’une autre nature comme exprimé ci dessus et c’est une nouvelle plateforme, on adhère ou pas, ils ont fait des choix assez clairs et parfois clivants de gouvernance en mettant la sécurité et la vie privée au dessus des autres enjeux, il y a des lois qu’ils ont décidé pour leur plateforme qui s’imposent à tous et qui ont pour conséquence que les « good guys » se sentent plus fliqués. Comme en toute démocratie il y a des lois, des impôts et des intérdits, mais vous avez le choix de ne pas être « citoyen » de cette plateforme là et d’ailleurs la grande majorité du marché à fait le choix Android (la plupart pour le prix plus que pour la liberté de hacker, sans se rendre compte que c’était au prix de leurs données personnelles)
Perso j’observe tout cela à distance, en prenant un peu de recul et en ayant un peu confiance en l’humain et une motivation pas uniquement financière.. peut être je suis naïf, mais pour l’instant je n’ai pas été déçu par l’équilibre trouvé par les différents acteurs sur le hard et OS, mais je suis super opposé aux trucs comme FB qui sont hors contrôle.
J’arrête là - C’est un débat pas adapté à ce forum
J'espère que vous avez raison et que je suis juste trop pessimiste, voire cynique. Nous verrons bien la tournure que prendront les choses.
Pour info, tous les chargeurs du commerce et la plus grande part des alimentations stabilisées sont des alims à découpage dont le rendement est bien meilleur que les alims classiques analogiques. D'ailleurs, on n'en trouve plus, il faut les faire soi même et aimer le gaspillage !