¿ porque utilizar resistencias de 10k y no utilizar resistencias de 100 ohm?

Bueno mi pregunta es la siguiente , eh visto en varios foros que para bajar un voltaje ocupan lo que denominan un divisor de voltaje en la cual conectan 3 resistencias de 10k , y en la cual logran bajar 5 v a 3.3 v , y lo que no entiendo es que si yo calculo según la ley de ohm , me da para trabajar con la unidad ohm y no en kilo , ejemplo para bajar 5 v a 3.3 con 20ma , me daría que debo poner una resistencia de 100 ohm , ¿ Que es lo que no estoy entendiendo ya que debe de haber una explicación que paso por alto?

Generalmente eso se utiliza en entradas digitales, para pasar de un nivel lógico a otro.

Pero ¿por qué? Muy sencillo las entradas digitales, sobre todo en microcontroladores estan basadas en transistores MOSFET cuya base no es atacada por corriente, si no por tensión.

Esto quiere decir que si aplicas una tensión en la entrada de un micro, la corriente que va a circular hacia el micro es nula (en teoria, en la practica es del orden de los nanoamperios).

Si utilizas resistencias de 100 ohms, elevas el consumo innecesariamente con esos 20mA. Ya que esos 20mA van a circular a través de la resistencia y no van a ningún lado mas.

Entonces, ¿por qué no poner unas 100K y así el consumo es menor?. Podrías, y posiblemente funcionaría, dependiendo del tipo de señal. En este punto hay que tener otros factores, como capacidades parasitarias, corrientes de fuga, etc...

Así que, ¿por que 10K? ofrece un compromiso entre consumo y comportamiento en determinadas señales.

Sin embargo, ya que estamos te digo que no es la mejor solución. De hecho soy contrario a ella. Prefiero usar LEVEL SHIFTERS que tienen mucho mejor comportamiento y son más seguros en todo. También existen adaptadores de nivel integrados como por ejemplo el CD4050. Aunque claro, el circuito se complica y mucho, y más para un simple circuito de aficionado.