Aquí se supone que en un futuro, esperemos que no muy lejano, vaya un mini/micro/pico curso de electrónica básica. Intentaremos explicar con términos sencillos, y con las matemáticas justas, los principios de funcionamiento de los dispositivos electrónicos más comunes, así como los circuitos típicos de aplicación.
PÁGINA EN CONSTRUCCIÓN. No te molestes en seguir leyendo.
Llamamos carga eléctrica a la cantidad de electricidad que tiene un cuerpo. A pesar de que la materia -los átomos- es eléctricamente neutra, no ocurre así con las partículas que la componen.
Las partículas subatómicas que componen los átomos son: Protones: están en el núcleo y tienen carga positiva. Neutrones: están en el núcleo y no tienen carga, ni positiva ni negativa. Electrones: están en la corteza (las capas exteriores del átomo) y tienen carga negativa.
Los átomos son neutros eléctricamente. Esto quiere decir que no poseen carga neta, o lo que es lo mismo, que la suma de sus cargas positivas y negativas da cero. Sin embargo, la carga de un átomo puede verse alterada si su número de electrones aumenta (adquiere carga negativa) o disminuye (adquiere carga positiva).
Una carga eléctrica situada en el espacio, solo por el hecho de estar ahí, produce un campo eléctrico y provoca una fuerza de atracción o repulsión con otras cargas situadas dentro del campo eléctrico generado. Si las dos cargas eléctricas son del mismo signo se repelen, mientras que si son de signo contrario sufrirán una fuerza de atracción.
Vamos ahora a conceptos un poco más abstractos. Se dice que cuando tenemos un campo eléctrico presente, el potencial eléctrico de un punto del espacio es el trabajo necesario para trasladar una carga positiva desde un punto de referencia hasta el punto del espacio considerado.
Vamos a explicar esto otra vez para que se entienda mejor:
Ahora vamos a contar lo mismo, pero en lugar de campo eléctrico vamos a utilizar la gravedad:
Pues bien, si hemos entendido más o menos lo que significa el concepto de potencial eléctrico, ahora toca decir que lo realmente interesante de todo este rollo no es el potencial en sí, sino la diferencia de potencial. Vamos a dar una pista para que veáis a dónde queremos llegar: el potencial eléctrico se mide en Voltios (V).
Si soltamos una carga eléctrica en medio de un campo eléctrico, la carga se moverá desde donde esté hacia la zona donde su energía potencial sea menor (de la misma forma que cuando soltamos un objeto en un campo gravitatorio, se mueve hacia la zona donde su energía potencial es menor), y realizará un trabajo en su recorrido.
Dicho de otra forma, las cargas eléctricas se mueven de un punto a otro cuando existe una diferencia de potencial. Las cargas positivas se moverán de los puntos con potencial más positivo a los puntos con potencial más negativo, mientras que las cargas eléctricas se moverán de los puntos con potencial más negativo a los de potencial más positivo.
¿Y a qué viene todo esto del potencial y la diferencia de potencial? Pues bien, para conseguir que las cargas eléctricas se muevan, lo de situar una carga puntual en el vacío para que genere un campo eléctrico, etc… no resulta muy práctico. Pero hay muchas formas de producir una diferencia de potencial, que al fin y al cabo es lo que nos interesa.
Los métodos más habituales para producir una diferencia de potencial eléctrico son los químicos (baterías) y la inducción electromagnética (alternadores y dinamos).
Dado que el potencial eléctrico se mide en Voltios (V), la diferencia de potencial también se mide en Voltios, y es lo que comúnmente llamamos voltaje.
Por lo tanto, el resumen de todo esto es que el voltaje entre dos puntos es la diferencia de potencial eléctrico entre esos dos puntos, o dicho de otra forma, es la caída que experimentan las cargas cuando pasan de un punto al otro, equivalente a la caída que sufre nuestro Arduino desde lo alto del armario hasta el suelo.
Cuanto mayor es el voltaje, mayor es la diferencia de potencial y mayor es el salto o caída, y por lo tanto la energía o trabajo producido es mayor.
Ahora que conocemos el concepto de voltaje, vamos con la intensidad, y ya puestos, con la resistencia.
¿Recordáis el Arduino que teníamos encima del armario? Pues imaginemos ahora que en lugar de un arduino tenemos una caja llena. Todos esos Arduinos están al mismo potencial gravitatorio que cuando sólo teníamos uno, es decir, su voltaje es el mismo. Sin embargo, no es lo mismo que dejemos caer uno solo a que los dejemos caer a todos. Podéis hacer la prueba vosotros mismos: probad a dejar caer un Arduino sobre vuestro pie, y luego probad a dejar caer una caja entera. Comprenderéis que a pesar de que la altura es la misma en ambas caídas, una duele más que la otra (¿en serio me habéis hecho caso?).
Se llama intensidad de corriente eléctrica a la cantidad de carga eléctrica que circula a través de un medio por unidad de tiempo. La cantidad de carga eléctrica se mide en Culombios (C), y la intensidad de carga eléctrica en Amperios (A). Un Amperio equivale a la circulación de un Culombio por segundo. O dicho de otra forma:
I = Q / t
Así, en nuestra analogía gravitatoria, la intensidad sería el número de Arduinos que se caen del armario por unidad de tiempo. Deberíamos estar ya en condiciones de saber diferenciar entre voltaje e intensidad: el voltaje es la altura del armario, la intensidad es el número de Arduinos que se caen en cada segundo.
Ahora bien, ¿de qué depende el hecho de que caigan más o menos Arduinos por segundo? Aquí es donde toca introducir el otro concepto: la resistencia. Si nuestros Arduinos, en lugar de caer atravesando el aire, estuviesen en una piscina cubiertos de agua y cayesen hacia el fondo, veríamos que caen más despacio. El agua ofrece una mayor resistencia al paso de los Arduinos en comparación con el aire, y por eso los Arduinos caerían más lentamente, a un ritmo menor.
Este concepto es más fácil de entender que los otros dos, y es el que cierra el círculo. Llamamos resistencia eléctrica a la mayor o menor dificultad que encuentra la corriente eléctrica al atravesar un medio conductor.
La resistencia eléctrica se mide en Ohmios (Ω). La resistencia no es una propiedad intrínseca de cada material, sino que depende de la forma de cada conductor en cuestión. Sin ánimo de profundizar mucho en la teoría, solamente diremos que la propiedad intrínseca de cada material que indica el grado de permisividad al paso de la corriente eléctrica, es la conductividad eléctrica. Es la conductividad lo que nos permite clasificar los materiales en mejores o peores conductores. Asimismo, llamamos resistividad eléctrica a la propiedad contraria, esto es, al grado de oposición que muestra un material al paso de la corriente eléctrica.
Dicho de otra forma, la resistividad es la propiedad inversa de la conductividad:
ρ = 1 / σ
ρ = Resistividad
σ = Conductividad
Luego, para saber la resistencia que tendrá un conductor particular de una longitud determinada y con un espesor concreto, obtenemos la resistencia a partir de la fórmula:
R = ρ · L / S
R = Resistencia del conductor
ρ = Resistividad del material con el que está hecho el conductor
L = Longitud del conductor
S = Área de la sección del conductor
De esta última fórmula podemos deducir dos cosas:
Vale, fenomenal, ya nos has explicado lo del armario, los arduinos que se caen y todo eso pero, ¿qué es lo que se “cae” cuando hablamos de corriente eléctrica?
La corriente eléctrica se produce cuando se mueven cargas eléctricas a través de un medio, pero no existen cargas eléctricas así sin más, sino que lo que existe son partículas con carga eléctrica. Ya habíamos comentado antes que los átomos que forman la materia son eléctricamente neutros, pero que estaban formados por partículas que sí tenían carga eléctrica. De las dos partículas subatómicas que tienen carga eléctrica, protones y electrones, son estos últimos los que son capaces de moverse en ciertas condiciones y producir así la corriente eléctrica.
La mayor o menor libertad con la que se pueden mover los electrones depende del tipo de material que estemos considerando. Los metales ofrecen, por regla general, una buena conductividad eléctrica. Esto se debe a las propiedades del enlace metálico con el que se unen sus átomos. En un metal, la materia se organiza como una especia de “sopa” de átomos en los que los electrones más externos tienen una movilidad casi total y no pertenecen a ningún átomo en concreto. En esas condiciones, los electrones pueden moverse fácilmente a lo largo del metal. Y por eso los metales son excelentes conductores de la electricidad.
Otros materiales se comportan de una forma totalmente distinta. La sal común, por ejemplo, es un cristal iónico. Eso significa que está formado por iones (átomos con carga eléctrica) y no por átomos neutros. Los iones son átomos que han ganado o perdido electrones, con lo que su carga deja de ser neutra. Paradójicamente, aunque los iones podrían servir para que la carga eléctrica circulase por el material, resulta que forman una estructura cristalina, reticulada, en la que cada ión tiene su sitio y está fuertemente retenido por las fuerzas de atracción y repulsión electrostática que generan los iones vecinos. Los electrones en estos cristales no tienen movilidad y están fuertemente atraídos por los núcleos de los iones. Y los iones tampoco se pueden mover porque están inmovilizados en la estructura cristalina. El resultado de todo esto es que los cristales iónicos conducen muy mal la electricidad cuando están en estado sólido. Cuando están en estado líquido, o cuando están disueltos en un líquido, ocurre todo lo contrario: los iones pasan a estar libres y al no ser átomos neutros, la corriente eléctrica se establece cuando los iones positivos se mueven en una dirección y los iones negativos en la contraria.
En un conductor metálico, los electrones (con carga negativa, recordemos) se moverán desde el extremo con voltaje negativo hacia el extremo con voltaje positivo.
En una disolución de sal, los iones negativos se mueven hacia el electrodo positivo y a su vez los iones positivos se mueven hacia el electrodo negativo.
Anda, ¿pero entonces la corriente que pasa por un cable va del negativo al positivo? ¡Pero si de toda la vida nos han dicho que va del positivo al negativo!
Sí, es cierto. Es una mentirijilla que se ha mantenido durante unos cuantos siglos. Aunque llamarla mentirijilla sería injusto, y veamos por qué.
La existencia de la electricidad se conoce desde hace miles de años. La palabra electricidad mismamente viene del griego êlektron, que en griego significa ámbar. Y es así porque los griegos sabían que el ámbar era un material electrostático, que al frotarlo con otros materiales hacía unas cosas extrañas como atraer materiales ligeros, cabellos, etc… Vamos, lo que nosotros hemos hecho alguna vez con un globo y un jersey de lana.
Lo que ocurre es que los griegos conocían las propiedades del ámbar, pero no entendían muy bien el porqué de su comportamiento. No fue hasta después de unos cuantos siglos, a partir del S. XVI, cuando se comenzaron a conseguir avances importantes en el estudio del fenómeno eléctrico, y en consideración a los clásicos griegos que lo habían estudiado mucho antes, se le llamó electricidad.
Y claro, comenzar a estudiar un fenómeno tiene algunos inconvenientes, como asumir cosas que luego resultan ser al revés. Después de unos cuantos cientos de años de grandes avances en el conocimiento de la electricidad, resulta que a finales del S. XIX se descubre el electrón. Durante todo ese tiempo se había considerado siempre que la corriente eléctrica fluía desde el polo positivo hacia el negativo (que esa es otra, porque lo de positivo y negativo es otra convención más). Ahora, con la confirmación de la existencia del electrón y con su carga negativa, se sabía que la corriente eléctrica era en realidad un flujo de electrones que iba del polo negativo hacia el positivo.
Es bien sabido que el hombre es un animal de costumbres, y tener que darle la vuelta a una convención asumida desde hacía dos o tres siglos era muy difícil, así que se continuó considerando que el flujo de la corriente eléctrica era de positivo a negativo (lo que llamamos sentido convencional de la corriente eléctrica), aunque el sentido real fuese de negativo a positivo. Esto no trastocaba nada, ya que se trata solamente de un signo matemático.
Da igual considerar cargas eléctricas negativas que se mueven en un sentido, o cargas eléctricas positivas que se mueven en el sentido contrario. Además, también se habla muchas veces de corriente de huecos, ya que cuando un electrón se mueve deja un hueco que debe ser reemplazado por otro electrón que viene detrás. Los electrones se mueven en una dirección y el hueco se va moviendo en la contraria.
PERO YA ESTÁ BIEN DE HISTORIAS…
Conocemos el concepto de voltaje eléctrico, o diferencia de potencial. Es la altura de la “caída” que experimentan las cargas eléctricas cuando pasan de un extremo al otro de un circuito.
Conocemos el concepto de intensidad de corriente eléctrica. Es el número de cargas, o la cantidad de carga, que atraviesa un circuito por unidad de tiempo.
Conocemos, o intuimos, el concepto de resistencia eléctrica. Es la mayor o menor oposición que muestra un material ante el paso de la corriente eléctrica.
Bueno, pues atentos ahora porque llegamos al final del capítulo con un cierre espectacular: ¿cómo se relacionan voltaje, intensidad y resistencia entre sí?
Es el momento de presentaros a la Ley de Ohm.
Lo mejor para aprenderse la ley de Ohm es la terapia de choque, así que ahí va:
I = V / R
V = I · R
R = V / I
La Ley de Ohm viene a decir que la intensidad que atraviesa un circuito es directamente proporcional al voltaje entre sus extremos, e inversamente proporcional a la resistencia que ofrece ese circuito al paso de la corriente eléctrica. O dicho de otra forma:
De todo esto podemos deducir algunas cosas. Lo primero es que una sola de las magnitudes no define las condiciones de lo que ocurre en un circuito eléctrico. Podemos tener un circuito sometido a un voltaje muy alto, pero sólo ese dato no nos dice si la intensidad que lo atraviesa es muy alta, sino que necesitamos además saber su resistencia. Sólo cuando conocemos dos de las magnitudes podemos conocer la tercera.
Si vemos un circuito donde la intensidad de corriente es muy baja, no podemos deducir que se debe a que la resistencia es muy alta. Antes necesitamos saber el voltaje que hay entre sus extremos, y solo entonces podremos sacar conclusiones.
Como vemos, la Ley de Ohm es algo muy simple y que describe un fenómeno lineal (lo de lineal significa que sus magnitudes son proporcionales, directa o inversamente):
Espera, espera… ¿cómo que con una intensidad constante? ¿Pero la intensidad no dependía de la tensión y del voltaje?
A modo de spoiler para que en un futuro no nos asombremos, vamos a hacer un pequeño inciso.
Estamos habituados a que todas las fuentes de energía eléctrica que conocemos y utilizamos en nuestra vida diaria, sean fuentes de voltaje constante. Así, en el enchufe de nuestras casas tenemos 230V (no, no, no son 220V como pensáis, la tensión oficial en España es de 230V desde el Real Decreto 842/2002). Y esos 230V estarán siempre ahí tanto si enchufamos el cargador del móvil, o si enchufamos la tostadora. Por eso se llaman fuentes de voltaje constante: porque su tensión no depende de la carga que conectemos.
Pues resulta que, además de las fuentes de tensión constante, existen también las fuentes de corriente constante. Son fuentes que suministran siempre la misma intensidad de corriente, sin depender de la carga que conectemos. Si conectamos una resistencia pequeña el voltaje que aparecerá entre sus extremos será pequeño, y si conectamos una resistencia grande también lo será el voltaje entre sus extremos.
Ahora bien, seguramente estéis pensando que una fuente de corriente constante no resulta de mucha utilidad ya que nunca sabremos el voltaje que va a resultar de ahí. Os parecerá algo absurdo. Pero no es más que una convención (como otras tantas). En nuestra casa la convención es que todo funciona a 230V, los fabricantes de electrodomésticos lo saben y nos dicen qué intensidad va a circular cuando los enchufemos (nosotros debemos comprobar si nuestra instalación soporta esa intensidad). Una convención igual de válida podría ser que en nuestra casa todo funcionase a 10A, y que los fabricantes nos dijesen el voltaje que iba a aparecer en el enchufe cuando los conectásemos (para que nosotros comprobásemos si nuestra instalación soporta esa intensidad).
En realidad, lo de usar el voltaje constante no es que fuese una decisión arbitraria, sino que derivó de aspectos prácticos: los alternadores generan un voltaje determinado cuando los hacemos girar a una velocidad concreta (y una batería genera un voltaje concreto en función de sus elementos químcos), así que la adaptación natural es la de usar un voltaje estandarizado y estandarizar la intensidad no sería más que una tontería, aparte de algo inviable. Por otro lado, los aislantes empleados en una instalación dependen de su voltaje, con lo que lo de los voltajes variables en función de la carga tampoco parece muy adecuado. Aunque las fuentes de corriente constante tampoco son algo inútil. Si llegamos algún día a escribir el capítulo sobre amplificadores, acabaremos hablando de ellas.
Pero bueno, dejémonos de tanta teoría y hagamos algunos cálculos para desperezarnos un poco.
Problema 1:
A una fuente de 48V conectamos una resistencia de 15Ω. ¿Qué intensidad circulará por ella?
I = V / R ⇒ I = 48V / 15Ω = 3.2A
Problema 2:
En un enchufe de 230V tenemos conectada una tostadora por la que pasan 5.8A. ¿Cuál es su resistencia eléctrica?
R = V / I ⇒ R = 230V / 5.8A = 39,65Ω
Problema 3:
A una batería de voltaje desconocido tenemos conectada una resistencia de 2200Ω, y medimos con un amperímetro que la intensidad que circula por ella es de 1,68mA. ¿Cuál es el voltaje de la batería?
V = I · R ⇒ V = 0.00168 · 2200Ω = 3.7V
(Ya sabemos que es una tontería medir con un amperímetro y luego calcular, cuando se podría haber medido con el voltímetro. Permitidnos alguna licencia, demonios.)
La definición que se da en física a la energía es “la capacidad para realizar un trabajo”. Debido a ello, los términos trabajo y energía se confunden a veces, ya que se miden en las mismas unidades. El trabajo realizado sobre un sistema equivale siempre a la energía que se aporta al sistema. Si es el sistema el que realiza un trabajo, significa que cede energía al entorno.
Las unidad de energía del sistema internacional es el julio (J).
En cuanto a la potencia, no es más que la cantidad de energía que se aporta o que se recibe de un sistema por unidad de tiempo. Energía y potencia están relacionados, pero no son lo mismo. Podemos tener mucha potencia durante un breve periodo de tiempo, con lo que la energía total será pequeña, y podemos tener una potencia baja pero durante mucho tiempo, en cuyo caso la energía total no será despreciable. Si subimos nuestro Arduino muy poco a poco, estaremos desarrollando una potencia baja. Si lo hacemos rápidamente la potencia será mayor. Pero en ambos casos la energía aportada al Arduino será la misma.
La expresión matemática para la potencia será entonces:
P = E / t
, siendo E la variación de energía de un sistema, o bien el trabajo realizado sobre él.
La unidad de potencia del sistema internacional es el vatio (W).
Vamos a ver qué es la energía en un escenario de mecánica clásica. ¿Recordáis ese Arduino UNO que se caía desde lo alto del armario? Pues ese Arduino pierde energía potencial durante su caída, que se va convirtiendo en energía cinética (velocidad). Al llegar al suelo, esa energía cinética se emplea en realizar un trabajo: seguramente el Arduino haya sufrido alguna fractura, o alguna pieza se habrá deformado, e incluso una parte de la energía se habrá disipado en forma de calor.
Podemos decir que la energía potencial perdida por el Arduino se ha empleado en realizar un trabajo (romper algo, doblar un pin, etc…).
De la misma forma, cuando cogemos el Arduino del suelo y lo subimos de nuevo al armario estamos realizando un trabajo sobre él. Este trabajo que realizamos sobre el Arduino le aporta energía al mismo. ¿Qué tipo de energía? Pues energía potencial, ya que lo estamos trasladando desde el suelo hasta una posición más elevada. Más concretamente, la energía que le hemos aportado equivale al peso del Arduino (en Newtons) multiplicado por la altura a la que lo subamos.
Resumiendo:
Si hablamos de la electricidad, lo que tenemos son cargas eléctricas moviéndose entre dos puntos de diferente potencial, pero la analogía es la misma. Una carga libre se moverá hacia el punto donde su potencial sea menor, y durante el proceso cederá energía al entorno. Si lo que queremos es que las cargas se muevan a puntos donde su energía potencial sea mayor, lo que hay que hacer es aportarles esa energía realizando un trabajo sobre ellas.
Cuantas más cargas se muevan de un punto a otro, más energía liberarán (o más energía habrá que aportarles, dependiendo de en qué sentido queremos que se muevan). Dicho de otro modo, la cantidad de energía implicada en un lapso de tiempo concreto será directamente proporcional a la cantidad de cargas que se muevan en ese intervalo de tiempo, y también será directamente proporcional al salto de potencial que experimenten dichas cargas.
Mmmmm…. Analicemos con un poco más de calma lo que acabamos de decir:
Por lo tanto, la expresión de la potencia eléctrica que nos queda es así de simple:
P = V · I
Las unidades en las que se mide la energía, como ya hemos dicho antes, son los vatios (W). Si lo que queremos es conocer la cantidad de energía, necesitamos saber la cantidad de tiempo durante la cual se desarrolla esa potencia, y no tenemos más que realizar la multiplicación:
E = P · t
Esta última fórmula es la misma que hemos dado antes para la potencia, pero ahora hemos despejado el término de la energía. Si la potencia era la energía por unidad de tiempo, la energía se puede definir como la potencia multiplicada por el tiempo.
En electricidad, lo más habitual es hablar de energía no en julios, sino en vatios·hora (W·h, o Wh). O más bien en su múltiplo, los kilovatios·hora (KW·h, o KWh).
Fijémonos muy bien en estas unidades, porque es muy frecuente interpretarlas mal:
Insistimos:
Ya hemos hablado antes de la resistencia eléctrica, así que no vamos a contar aquí nada nuevo. El fenómeno de la resistencia eléctrica es la oposición que muestran los diferentes materiales al paso de la corriente eléctrica.
Una resistencia convierte la energía eléctrica en calor. Así de simple. Hay ocasiones en las que eso es precisamente lo que queremos: calor. Pensemos en una estufa, o una plancha, o una cocina. Seguro que se os ocurren más casos.
Las resistencias, como componentes de un circuito electrónico, son elementos destinados a ofrecer la oposición necesaria para conseguir que la intensidad que recorre el circuito sea la que nosotros queramos o necesitemos. Energéticamente son un desastre, ya que no obtenemos de ellas ningún rendimiento (todo se pierde en calor). Pero las resistencias son algo necesario, ya que nos permite polarizar (veremos qué significa esto más adelante) correctamente los componentes activos (como los transistores) que necesitan funcionar bajo una intensidad de corriente determinada. Y sí, lo habéis adivinado: nosotros conseguimos la intensidad necesaria eligiendo la resistencia adecuada.
Pero no adelantemos acontecimientos y veamos cómo se comportan las resistencias, y sobre todo, cómo se comportan los grupos de resistencias cuando las conectamos entre sí.
[poner aquí un circuito serie con dos resistencias]
En la figura de arriba podemos ver un circuito serie de dos resistencias. ¿Por qué se llama “en serie”? Pues porque una resistencia está conectada a continuación de la otra, en cadena (en otras palabras: en serie). Tampoco hay que ser muy listo, vamos.
Veamos qué podemos deducir de este tipo de circuitos:
Tenemos claro que la intensidad es la misma en las dos resistencias, ¿no?. Pues entonces podemos decir que:
I = IA = IB
, o dicho de otra forma, que la intensidad que recorre el circuito es la que recorre cualquiera de las dos resistencias.
¿Cuál será la tensión presente en cada una de las resistencias? No tenemos más que aplicar la Ley de Ohm:
VA = IA · RA
VB = IB · RB
, pero hemos dicho que la intensidad es la misma para las dos resistencias, luego:
VA = I · RA
VB = I · RB
, y además sabemos que la suma de las tensiones parciales debe ser igual a la tensión total, luego podemos decir que:
V = VA + VB
V = I · RA + I · RB
, y si sacamos factor común de la expresión anterior, nos queda que:
V = I · (RA + RB)
Supongamos ahora que ese conjunto de dos resistencias en serie lo sustituimos por una sola resistencia equivalente. Cuando hablamos de resistencia equivalente nos referimos a que si la conectamos a la misma batería, circulará la misma corriente. Por eso se llama equivalente, porque se comporta igual.
En ese caso, tendríamos que al aplicar la Ley de Ohm a nuestra resistencia equivalente:
V = I · RE
Así que ahora no tenemos más que igualar las dos expresiones:
V = I · RE = I · (RA + RB)
, y si de la segunda igualdad eliminamos la intensidad que aparece multiplicando a ambos lados, nos queda:
RE = RA + RB
, que es la expresión que nos da la resistencia equivalente de dos resistencias en serie.
[poner aquí un circuito paralelo con dos resistencias]
En la figura de arriba podemos ver un circuito paralelo de dos resistencias. ¿Por qué se llama “en paralelo”? Pues porque todas las resistencias están conectadas a los bornes de la batería. Sus bornes están unidos y todas ellas están colocadas paralelamente entre sí. La corriente que sale de la batería se divide en las conexiones y entra en todas las resistencias. De ahí lo de “en paralelo”.
Veamos qué podemos deducir de este tipo de circuitos:
Tenemos claro que el voltaje es el mismo en las dos resistencias, ¿no?. Pues entonces podemos decir que:
V = VA = VB
¿Cuál será la intensidad que circula por cada una de las resistencias? No tenemos más que aplicar la Ley de Ohm:
IA = VA / RA
IB = VB / RB
, pero hemos dicho que el voltaje es el mismo para las dos resistencias, luego:
IA = V / RA
IB = V / RB
, y además sabemos que la suma de las intensidades de ambas resistencias es igual a la intensidad total que sale de la batería, luego podemos decir que:
I = IA + IB
I = V / RA + V / RB
, y si sacamos factor común de la expresión anterior, nos queda que:
I = V / (RA + RB)
Supongamos ahora que ese conjunto de dos resistencias en paralelo lo sustituimos por una sola resistencia equivalente.
En ese caso, tendríamos que al aplicar la Ley de Ohm a nuestra resistencia equivalente:
I = V / RE
Así que ahora no tenemos más que igualar las dos expresiones:
I = V / RE = V / (RA + RB)
, y si de la segunda igualdad eliminamos la intensidad que aparece multiplicando a ambos lados, nos queda:
1 / RE = 1 / (RA + RB)
, que es la expresión que nos da la resistencia equivalente de dos resistencias en paralelo.
Esta es muy fácil. No os preocupéis. A la Ley de Corrientes de Kirchhoff se la conoce también como Ley de Nodos de Kirchhoff, o simplemente Primera Ley de Kirchhoff
¿Y qué dice esta ley? Pues algo muy fácil de entender: la suma de las corrientes que entran o salen de un nodo es cero.
Dicho de otra forma, aún más fácil de entender: la suma de las corrientes que entran a un nodo es igual a la suma de las corrientes que salen de ese nodo.
Cuando hablamos de nodo, nos referimos a una conexión eléctrica. Cuando tenemos varios conductores unidos en un punto, en algunos de ellos la corriente fluirá hacia el punto de unión, y en otros lo hará en sentido contrario, alejándose del punto de unión. Lo que nos dice Kirchhoff es algo que a lo mejor nos parece obvio: el ese nodo o punto de unión no se puede acumular carga, así que la suma de las corrientes que entran al nodo (que viene a ser como una suma de flujos de partículas portadoras de carga) debe ser igual a la suma de las corrientes que salen.
Que puede parecer que no tenga mucho mérito esta Ley, pero oye, Kirchhoff se lo curró.
Aaaaaamigoooss… Esta ya no va a ser tan fácil, aunque si lo pensáis un poco también es fácil de entender.
La Ley de Tensiones de Kirchhoff, o simplemente Segunda Ley de Kirchhoff (seguramente fue la segunda porque le costó un poco más deducirla), nos dice que la suma de las tensiones en un circuito cerrado es cero.
A ver, no os asustéis. Ya qué que muchos de vosotros habéis jugado a encender bombillas con pilas y cosas así, y tenéis claro lo que es un circuito cerrado, y las bombillas se encendían cuando se cerraba el circuito, con lo cual la tensión no puede ser cero.
Vamos a ver qué es lo que quería decir Kirchhoff con esto de las tensiones que suman cero.
¿Os acordáis cuando usábamos la analogía de la altura para explicar lo que era la diferencia de potencial? Pues vamos a volver a ese modelo. Supongamos que somos un pequeño primate en la selva africana, hambriento y a los pies de un platanero. La altura inicial a la que estamos es la del suelo, que podemos equiparar a cero. Ahora vamos a realizar unos cuantos saltos:
Si sumamos todos los incrementos, tenemos que 2 + 3 + (-1.5) + (-2.5) + (-4) = 0, o lo que es lo mismo, dado que salimos del suelo y hemos vuelto al suelo, la suma de los incrementos parciales forzosamente tiene que ser cero.
(Vale, en este momento estáis pensando que Kirchhoff era una reencarnación del Capitán Obvio. Paciencia)
Traslademos ahora el ejemplo al circuito eléctrico de la figura siguiente:
[[[PONER IMAGEN AQUI DE UN CIRCUITO CON VARIAS RESISTENCIAS EN SERIE]]]]]
Supongamos que somos un electrón que sale del borne negativo de la batería. Nuestra posición inicial, por lo tanto, es una en la que nuestro potencial es de 0 voltios. En el circuito circula una corriente determinada, dado que es un circuito cerrado, y en cada resistencia habrá una diferencia de potencial entre sus extremos.
Ahora sí que hemos llegado al punto de partida. Aquí es donde podemos aplicar la Segunda Ley de Kirchhoff, con lo que nos queda:
V1 + V2 + V3 - Vbat = 0
Y a esto es a lo que se refería el bueno de Kirch.
Mientras vamos redactando este minicurso, no tenemos muy claro si realmente es necesario explicar este teorema, pero lo dejamos por aquí por si acaso.
El amigo Thévenin nos dice que dado un circuito lineal (se refiere a que sus componentes tienen un comportamiento lineal, no que a estén conectados en línea) que esté conectado entre dos puntos A y B, se puede sustituir por un circuito simple formado tan solo por una fuente de tensión constante y una resistencia en serie.
Dicho de otra forma, podemos sustuir un circuito entre dos puntos A y B, por enrevesado que sea, y usar un modelo simplificado que conste tan solo de una fuente de tensión y una resistencia. De puertas afuera, es decir, visto desde esos dos puntos A y B, el circuito simplificado se comportará exactamente igual que el circuito original.
¿De qué nos sirve esto? Pues para muchas cosas, pero lo mejor es que lo veáis con un ejemplo. Cuando alguien diseña un amplificador y desea dar sus características, nos dice cuál es su impedancia de entrada y su impedancia de salida. Con esos datos ya sabemos cómo se comportará el amplificador cuando le conectemos un micrófono concreto y un altavoz concreto. No es necesario que nos den el detalle de cómo es el circuito interno, sino que aplicando el Teorema de Thévenin, nos basta con saber cuál es la resistencia que “se ve” desde la conexión de entrada y desde la conexión de salida.
El Teorema de Thévenin no se limita a resistencias, aunque puede que lo veamos más adelante. En un circuito con resistencias, bobinas y/o condensadores, su equivalente Thévenin tendrá una fuente de tensión constante y una impedancia en serie (aún no hemos visto lo que es una impedancia, pero es la resistencia equivalente de un circuito que tenga bobinas y/o condensadores).
El Teorema de Norton es el complemento del Teorema de Thévenin, solo que el amigo Norton asegura que un circuito se puede sustituir por otro equivalente que esté compuesta por una fuente de corriente constante y una resistencia en paralelo.
Ambos teoremas dicen lo mismo: que cualquier circuito lineal puede ser reducido a un circuito equivalente y simplificado. A Thévenin le gustaban más las fuentes de tensión constante, y a Norton le iban más las fuentes de corriente constante. Nada más.
Un condensador es un dispositivo pasivo eléctrico que es capaz de almacenar energía eléctrica en forma de campo eléctrico. Se dice que los condensadores almacenan carga eléctrica aunque si nos ponemos exquisitos eso no es cierto, ya que el condensador en conjunto siempre va a tener una carga total neutra. A pesar de ello, se usa muchísimo la expresión de “almacenar carga” ya que sirve para entender su funcionamiento en un circuito eléctrico.
Un condensador se compone simplemente de dos conductores en forma de placa enfrentados y aislados entre sí por un material dieléctrico. Cuando conectamos los terminales del condensador a una batería, entre sus placas se establece un campo eléctrico, con cargas negativas y positivas concentradas en cada uno de sus electrodos (pero ojo, que la carga total del condensador sigue siendo neutra). Cuando hablamos de la carga o de la descarga de un condensador no estamos diciendo que el condensador pase a contener carga eléctrica ya que su carga siempre será neutra. Lo que ocurre es que el condensador se carga de energía haciendo que sus electrodos se carguen ambos con la misma carga pero de signo contario. La suma de la carga de ambos electrodos siempre será cero.
La capacidad de un condensador depende directamente de la superficie de sus dos electrodos, e inversamente a la distancia que los separa. Para aumentar la capacidad de un condensador podemos aumentar dicha superficie, reducir su separación, o ambas cosas. Además, también influye el material usado como dieléctrico. Un condensador que utilice como dieléctrico láminas de polietileno tendrá 2,25 veces la capacidad que tendría si sólo utilizase el aire como aislante.
La unidad de capacidad de los condensadores es el Faradio (F), aunque esta es una unidad muuuuuy grande para los condensadores que podemos utilizar normalmente, y lo más habitual es trabajar con condensadores cuya capacidad sea una fracción de la misma:
Dependiendo de la tecnología de fabricación, existen condensadores no polarizados, esto es, cuyos terminales se pueden conectar indistintamente a la parte positiva o a la negativa de un circuito; mientras que otros tipos de condensadores (los electrolíticos son los principales) son polarizados, o dicho de otra forma, uno de sus terminales debe ir conectado a la parte positiva y el otro a la negativa y no pueden ser intercambiados si no queremos destruir el condensador (y disfrutar de un bonito “¡¡¡pop!!!”).
Pero vamos al meollo.
¿Qué ocurre cuando conectamos un condensador a una batería?
En la siguiente figura podemos ver un circuito básico RC donde un condensador C (previamente descargado) se conecta a una batería mediante una resistencia R y un interruptor.
[[ PONER AQUI EL ESQUEMA RC ]]
Veamos ahora qué ocurre cuando cerramos el interruptor:
Como el condensador está descargado, la diferencia de potencial entre sus terminales es de 0 voltios. Por lo tanto, en el mismo instante en que cerramos el interruptor, la corriente que comienza a circular es de V/R amperios.
Pero las placas del condensador están aisladas. ¿Cómo puede circular corriente? Lo que ocurre es que la placa superior va acumulando carga positiva, mientras que la placa inferior acumula carga negativa. Por lo tanto, no es que la corriente atraviese el condensador, sino que la misma cantidad de carga en una placa, se genera en forma de carga opuesta en la otra. Esto quizás se comprenda mejor si pensamos en los electrones: los electrones salen del negativo de la batería y llegan a la placa inferior, haciendo que acumule carga negativa. En la placa superior los electrones salen del condensador hacia el positivo de la batería, dejando a la placa donde estaban con carga positiva (la placa era neutra, y al perder electrones se vuelve positiva). Vemos que el efecto es como si circulase corriente a través del condensador, aunque realmente lo que hay es un quito de aquí y pongo allá. Bueno, prosigamos con lo que estábamos haciendo.
Si representamos la evolución de la tensión e intensidad, nos queda una gráfica tal que así:
[ PONER AQUÍ UNA GRÁFICA DE CARGA RC ]
No vamos a entrar en matemáticas demasiado complejas, pero si os fijáis en la gráfica resulta fácil adivinar que la intensidad va disminuyendo indefinidamente pero en realidad nunca llega a desaparecer del todo.
Sí, sí, habéis leído bien; la intensidad nunca desaparece del todo. Esto implica que el condensador nunca acaba de cargarse realmente. Esto es así porque se trata de una curva exponencial, que disminuye indefinidamente pero sin acercarse nunca a su límite. Sin embargo, a efectos prácticos se da por hecho que el condensador está cargado cuando han transcurrido 5 veces la constante de tiempo (no seáis impacientes, ya veremos después qué es la constante de tiempo).
Una vez desconectemos el condensador ya cargado del circuito, conservará indefinidamente su carga ya que ambos electrodos están aislados eléctricamente entre sí. Bueno, lo de indefinidamente aplicaría si se tratase de un condensador ideal. En la práctica (lo veremos más adelante), los condensadores se van descargando poco a poco debido a las características de los materiales de los que están hechos. Sin embargo, nos pueden dar algún susto si manipulamos condensadores que hace poco que se hayan cargado y que posean un potencial elevado, como los que podemos encontrar en los circuitos de alta tensión de los televisores antiguos (los que usan tubo de rayos catódicos).
Ahora toca ver qué es lo que ocurre cuando descargamos el condensador. Supongamos que el condensador anterior, bien cargadito a una tensión V, nos lo llevamos a otro circuito como el siguiente:
[[ PONER AQUI EL CIRCUITO DE DESCARGA RC ]]
Las condiciones iniciales de nuestro circuito son: VC = V (porque hemos cargado antes el condensador) I = 0 (porque tenemos el interruptor abierto)
Así que accionamos el interruptor, y:
Las gráficas de este proceso de descarga serán similares a éstas:
[ PONER AQUÍ UNA GRÁFICA DE DESCARGA RC ]
Nuevamente vemos que la curva de descarga tiende a cero, pero matemáticamente nunca llega a ella. En teoría, el condensador nunca se descargará del todo. A efectos prácticos, la descarga estará completa cuando hayan transcurrido 5 veces la constante de tiempo del circuito.
¿Pero qué demonios es eso de la constante de tiempo?
La constante de tiempo de un circuito RC se conoce como τ (letra griega tau) y equivale al tiempo que tardaría en cargarse/descargarse el condensador si la intensidad fuese en todo momento la inicial. Dado que, como ya hemos visto, la intensidad no permanece constante sino que decrece exponencialmente, el tiempo de carga/descarga de un circuito RC se considera que es de 5τ, a efectos prácticos (matemáticamente la carga/descarga no termina nunca).
Vamos a hablar ahora de la energía. Decíamos al principio que los condensadores no realmente no almacenan carga porque su carga total siempre es neutra, sino que almacenan energía separando las cargas entre sus dos electrodos y estableciendo un campo eléctrico entre ellos. ¿Cuánta energía es capaz de almacenar un condensador?
A medida las placas del condensador se van cargando, se va estableciendo una diferencia de potencial. Debido a esta diferencia de potencial, resulta más difícil seguir cargando el condensador ya que su potencial se opone al sentido de la corriente. Y cuanto más cargado está, mayor es el potencial y más cuesta seguir cargándolo.
Seguro que no lo habéis entendido, así que vamos con las analogías, que hace tiempo que no usamos ninguna. Cargar un condensador es como apilar cajas: ponemos la primera en el suelo y apenas nos cuesta trabajo, porque su potencial es cero (está en el suelo), cuando vamos a poner la segunda caja tenemos que colocarla a unos centímetros de altura, así que hemos tenido que realizar una cantidad de trabajo para trasladar esa caja desde el suelo hasta la parte superior de la primera caja. Y sucesivamente, conforme vamos aumentando la cantidad de cajas apiladas, cada vez nos cuesta más subir una nueva caja porque la altura a la que tenemos que subirla es mayor. En esta analogía las cajas son la carga eléctrica de cada una de las placas del condensador, la altura de la pila es la tensión o voltaje entre placas del condensador, y la energía que hemos empleado en apilar las cajas corresponde con la energía almacenada en el condensador.
Vamos con otra analogía, que además la usaremos en más ocasiones: el condensador es un depósito de agua, la carga de sus placas es la cantidad de agua que contiene, y el potencial o tensión entre sus terminales es la altura que alcanza el agua contenida. Imaginemos que estamos llenando ese depósito mediante una toma colocada en su extremo inferior. Cuando el depósito está vacío resulta muy fácil meter agua, porque no encontramos resistencia. Pero a medida que el agua va llenando el depósito y a alcanzar cierta altura, genera una presión en la parte inferior que se opone a que sigamos llenándolo, o dicho de otra forma, nos cuesta más seguir llenando el depósito cuanto más lleno se encuentre.
En esta analogía podemos ver también otra característica de los condensadores que no era tan visible con el ejemplo de las cajas: la anchura del depósito. Para una misma cantidad de agua, la altura de la misma será diferente en función de si el depósito es ancho o estrecho, y la altura que alcance será diferente. La anchura (más concretamente, la superficie de su base) equivaldría a la capacidad del condensador.
Y podemos decir lo siguiente: A mayor anchura/capacidad para una misma cantidad de agua/carga la altura/voltaje es menor, y la cantidad de energía que nos ha costado llenarlo es menor. A mayor anchura/capacidad para una misma altura/voltaje, la cantidad de agua/carga es mayor, y también es mayor la cantidad de energía que nos ha costado llenarlo.
¿Y cuánta energía almacena un condensador?
La cantidad de carga en las placas de un condensador, el voltaje presente entre ellas, la capacidad del condensador y la cantidad de energía almacenada se relacionan mediante estas fórmulas:
C = Q / V
E = 1/2 · C · V2 = 1/2 · Q · V = 1/2 · Q2 / C
Como podemos deducir de estas expresiones, la capacidad de un condensador es directamente proporcional a la carga en sus placas, e inversamente proporcional al potencial entre ellas. Además, la energía acumulada aumenta con el cuadrado del voltaje: un mismo condensador tendrá cuatro veces más energía acumulada si lo cargamos al doble del voltaje.
Como no hay nada perfecto en este mundo, tampoco lo son los condensadores reales. Como ya avisábamos en el capítulo sobre el proceso de carga, si nuestro condensador fuese ideal podríamos guardar el condensador una vez cargado de forma indefinida, y éste conservaría su energía. Pero esto en realidad no es así.
Veamos cómo es el circuito equivalente de un condensador real:
PONER EL ESQUEMA DE UN CONDENSADOR REAL CON RESISTENCIA SERIE Y RESISTENCIA PARALELO
El primer desengaño es que los dos electrodos del condensador no están completamente aislados. Siempre tendremos presente una resistencia parásita conectada entre ellos, que los irá descargando poco a poco. Esto se debe a que el dieléctrico utilizado para mantener separados los electrodos nunca va a ser un aislante perfecto. Aunque muy pequeña, siempre habrá una pequeña corriente eléctrica circulando entre los dos terminales del condensador debido al dieléctrico. Normalmente podemos obviar esta resistencia parásita, ya que como hemos dicho es de valores muy altos y por regla general no es necesario tenerla en cuenta al diseñar nuestros circuitos.
La otra resistencia que podemos ver en nuestro condensador real es la resistencia equivalente en serie, o ESR (Equivalent Series Resistance). Esta resistencia sí puede tener cierta relevancia en según qué circuitos. Los electrodos de un condensador no dejan de ser conductores eléctricos, y como tales ofrecen una resistencia al paso de la corriente eléctrica. Si bien esta resistencia es baja, a veces puede no ser despreciable. Otras veces no se trata de si la ESR es alta o no, sino de si es comparable a la resistencia que ofrece el propio condensador (esto lo tendremos que ver más adelante, cuando veamos la corriente alterna).
Tanto la resistencia parásita en paralelo como la ESR dependen de cómo esté fabricado el condensador. El tipo de dieléctrico, el tamaño del condensador, la superficie de los electrodos, etc…
Otro aspecto a tener en cuenta, no ya al diseñar, sino al elegir el tipo de condensador que necesitamos, es la tensión de trabajo. En un condensador real no podemos aplicar la tensión que queramos a los terminales de un condensador, porque todo material tiene una tensión de ruptura dieléctrica límite. Dicho de otra forma, más tarde o más temprano, si vamos subiendo la tensión en un condensador llegará un momento en el que saltará una chispa entre ambos electrodos. Eso se debe a que el dieléctrico ya no es capaz de soportar el intenso campo eléctrico que se genera, y sus moléculas se ionizan permitiendo que circule la corriente eléctrica por ellos. Es lo mismo que ocurre cuando cae un rayo durante una tormenta: la tierra y las nubes son los electrodos de un gran condensador, y el dieléctrico es el aire; cuando la tensión entre ambos extremos es tan alta que el dieléctrico ya no es capaz de seguir manteniéndolos aislados, salta una chispa (el rayo). En función del tipo de condensador, la ruptura del dieléctrico puede suponer la destrucción por completo del componente.
Resulta un poco redundante hablar por separado del comportamiento en continua y del comportamiento en alterna de un condensador, porque su comportamiento es siempre el mismo. Sin embargo, suele resultar útil asociar alguna analogía que nos ayude a interiorizar la función que cumple el condensador en nuestros circuitos,
Cuando hablamos del comportamiento en continua de un condensador nos referimos a aquellos circuitos en los que su misión es acumular carga energía. ¿Y de qué circuitos hablamos? pues por regla general, cuando el condensador va conectado directamente a la alimentación de un circuito.
Cuando un condensador está conectado directamente a las líneas de alimentación, suele ser por dos razones:
En cuanto al primero de los motivos anteriores, el uso más típico son los condensadores de filtrado en un circuito de alimentación. Sin pretender adelantar temario, vamos a ver un circuito de rectificación básico, la llamada rectificación de media onda:
PONER ESQUEMA RECTIFICADOR DE MEDIA ONDA
En el circuito anterior, la misión del condensador es la de almacenar energía en los periodos en los que el diodo conduce, para liberarla en los periodos en los que el diodo no conduce. El condensador hace las veces de “depósito” para que nunca baje el voltaje en el circuito y que la corriente circule siempre. Cuanto mayor sea la capacidad del condensador, menor será la bajada de tensión en los periodos en los que el diodo está en off. O volviendo al símil del depósito de agua, cuanto mayor sea nuestro depósito, menos bajará el nivel de agua hasta que el diodo vuelva a abrir el grifo.
La segunda de las razones que exponíamos antes podrían corresponder con este circuito:
En este circuito, la fuente de tensión y la resistencia que tiene conectada en serie pretende representar a un sistema de alimentación cuya capacidad de suministrar corriente es limitada. Decimos que es limitada, porque si aumenta mucho la demanda de corriente, la tensión en sus bornes baja debido a la caída de tensión que origina la resistencia serie.
Ahora supongamos que el circuito al que alimentamos tiene un comportamiento por el cual en ciertos momentos se producen picos de corriente elevados. Durante estos picos de corriente la tensión en el circuito bajará considerablemente, y eso seguramente hará que nuestro circuito no se comporte correctamente. En estos casos lo que se suele hacer es poner condensadores no ya para estabilizar la tensión, que de por sí podría ser ya estable, sino para poder hacer frente a estos picos de demanda de corriente.
El circuito anterior, con el correspondiente condensador, quedaría así:
Ahora, cada vez que se produzca un pico de corriente, será el condensador el encargado de suministrarla. La tensión en el condensador bajará, claro, pero lo hará en menor medida que cuando no teníamos ningún condensador. El tiempo entre que ocurre un pico de corriente y el siguiente también deberá ser suficiente para que el condensador recupere la energía perdida, o de lo contrario no serviría de mucho.
Así que quedémonos con la idea de que usamos los condensadores en continua como reservas de energía, para “suavizar” las fluctuaciones en la tensión de alimentación o para poder hacer frente a picos de corriente que el sistema de alimentación no podría satisfacer.
Un amplificador operacional (OpAmp, a partir de ahora, o simplemente operacional) posee dos entradas, la inversora (-) y la no inversora (+).
La salida de un amplificador operacional obedece a la siguiente fórmula:
VO = (V+ - V-) · G
Es decir, el amplificador operacional nos proporciona en su salida el valor de la diferencia entre sus dos entradas (la no inversora menos la inversora) multiplicado por su ganancia.
Hasta aquí no hay nada demasiado difícil de entender. Si en un amplificador multiplicamos la señal de entrada por la ganancia, y eso es lo que obtenemos a la salida, ahora la única diferencia es que en lugar de una entrada tenemos dos, y lo que amplificamos es la diferencia entre las dos entradas. De hecho en un amplificador “normal” también estamos amplificando una diferencia de señales, porque realmente lo que amplificamos es la diferencia entre la señal de entrada entrada y masa (pero como la masa equivale al potencial de 0 V, pues al final no restamos nada).
Para comprender el funcionamiento de los amplificadores operacionales debemos hacer algunas aproximaciones (a estas alturas de la película se supone que ya no os sorprenderéis), o asumir algunas mentirijillas:
¿Entendido hasta aquí? Los operacionales son unos circuitos que amplifican mucho, mucho la señal, y además tienen una entrada que apenas consume corriente, es decir, la fuente que alimenta la entrada del operacional apenas “nota” que tienen algo conectado. Lo que hacemos con estas aproximaciones es “idealizar” nuestro modelo de operacional, convirtiéndolo en algo teóricamente perfecto y luego poder utilizar esa “idealización” para simplificar los cálculos. Esas “idealizaciones” o aproximaciones no supondrán ningún problema porque la ganancia de los opamps reales es tan alta, así como su ganancia, que en un montaje real no afectan a los cálculos en absoluto.
Pues ahora viene lo bueno. De los dos puntos anteriores podemos deducir lo que llamaremos el “cortocircuito virtual”. Vamos a explicarlo:
El cortocircuito virtual significa que la diferencia entre las dos entradas del operacional es tan, tan pequeña, que podemos asumir que es cero, y que por lo tanto las dos entradas del operacional están siempre al mismo potencial. Siempre que el operacional esté trabajando de forma correcta y dentro de sus rangos, claro.
Esto es un poco difícil de asimilar al principio, pero os iréis acostumbrando. Se trata de un cortocircuito un tanto “especial”, porque las dos entradas están al mismo potencial pero sin embargo no es un cortocircuito real porque no circula corriente por ellas (recordad lo de la impedancia de entrada infinita!!!).
Estas dos condiciones, la impedancia de entrada infinita y el cortocircuito virtual, son las que permiten que calcular la ganancia de un circuito con opamp sea muy, muy sencillo.
A pesar de que usemos un modelo idealizado para nuestros cálculos hay algunos aspectos que hay que seguir teniendo presentes, como el del ancho de banda (BW, bandwidth). Un opamp ideal tiene un ancho de banda infinito, esto es, podría amplificar señales de cualquier frecuencia. Las dos mentirijillas de antes acerca de la impedancia de entrada y el cortocircuito virtual no afectan a los cálculos, pero el tema del ancho de banda sí es necesario tenerlo en cuenta si vamos a trabajar con frecuencias altas.
En el mundo real los opamp tienen un ancho de banda limitado y no pueden amplificar cualquier señal. Cuando la señal es de una frecuencia demasiado alta, los transistores que forman el opamp no pueden seguir el ritmo de unas oscilaciones tan rápidas. En función del diseño interno del opamp y de la tecnología de semiconductores empleada en su frabricación, tendremos opamps más o menos “rápidos”.
Esta rapidez viene indicada por una magnitud llamada slew rate, que nos dice cómo de rápido puede variar la salida del opamp, y se mide en V/us (voltios por microsegundo). Cuanto más alto sea el slew rate de un opamp, mayor será su ancho de banda ya que su salida puede oscilar a mayor velocidad.
[Explicar con imagen la curva de ganancia en lazo abierto de un opamp real]
[Explicar con imagen la curva de ganancia en lazo cerrado, y cómo el producto G·BW se mantiene constante]
[Incompleto. Pendiente completar el apartatado.]
Bueno, pues vamos a ver cómo sacamos provecho del cortocircuito virtual para calcular la ganancia de un operacional en montaje inversor.
Lo del montaje inversor significa que aplicamos la señal de entrada a la entrada inversora del operacional, y el amplificador nos dará una salida invertida respecto a la entrada. La entrada no inversora la pondremos a masa, tal cual podemos ver en el siguiente esquema:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Veamos qué ocurre en este esquema:
Si es la primera vez que leéis sobre el funcionamiento de los operacionales, puede que en este momento os haya estallado la cabeza. Os estaréis preguntando cómo puede ser que si yo aplico una señal pequeñita a una resistencia, la corriente en lugar de ir a masa salga por la otra resistencia (que incluso puede ser de mayor valor todavía!!!) provocando que a la salida tengamos la señal amplificada. Lo que tenéis que tener en cuenta aquí es el papel del operacional. Es el operacional el que se encarga de que esto ocurra. El operacional va a ajustar su salida a un valor tal que siempre se cumplan las ecuaciones de funcionamiento, y por lo tanto se mantendrán las condiciones para el cortocircuito virtual y todo lo demás. Si el amplificador entrase en saturación, es decir, si su salida llegase a los límites permitidos (los de la alimentación) ya no estaría en condiciones de garantizar que todo este tinglado se mantenga y por lo tanto ya no tendríamos un cortocircuito virtual en las entradas ni nada de eso.
Pero insisto, por si os estáis comiendo la cabeza con la relación causa efecto: no es la corriente de entrada la que espontáneamente se deriva hacia R2 porque sí, sino que es el amplificador el que ajusta su salida a un valor tal que se cumplan las condiciones para que por R2 circule la misma corriente que por R1, y por lo tanto se cumplan las ecuaciones del amplificador.
Si hemos entendido el montaje inversor, vamos a ver ahora el no inversor, que es un poco diferente:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Como podéis ver, la entrada que antes estaba puesta a masa ahora va a ser nuestra entrada de señal, mientras que la que antes era la entrada de señal ahora la pondermos a masa.
Apliquemos los mismos razonamientos que antes, a ver qué nos sale ahora:
Podemos deducir que la ganancia mínima será la unidad (cuando R2 = 0), pero de ahí no podemos bajar. Y desaparece el signo negativo, así que la salida estará en fase respecto a la entrada.
Además, en este caso particular en el que R2 = 0 , R1 pasaría a ser simplemente una resistencia conectada entre la salida del amplificador y masa, así que podríamos eliminarla y nos quedaríamos con un motaje súper sencillo llamado seguidor de tensión:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Este seguidor es una forma muy práctica de poder utilizar una señal sin degradarla, ya que la impedancia de entrada del seguidor es infinita (o casi) mientras que el operacional nos ofrece una impedancia de salida relativamente baja (dependerá del modelo) para atacar a lo que necesitemos.