en fundering, om man har ett visst varvtal på 50 hz och sen ökar upp frekvensarn till ett högre varvtal så att frekvensen ligger på 75 hz ökar spänning och ström då?
Det beror på hur man har programmerat/ställt in frekvensomriktaren. Det vanligaste är att spänningen är proportionell mot frekvensen under en viss brytpunkt (oftast 50 Hz), och däröver är spänningen konstant.
Vid högre frekvens kan en elmaskin med järnkärna matas med högre spänning utan att gå varm pga magnetisk mättning, men å andra sidan ökar ju virvelströms- och hysteresförlusterna i statorplåten så det kan bli varmt av den anledningen istället. Så om det är tillrådligt att gå upp över märkspänning för motorn när man ökar frekvensen över 50 eller 60 Hz, kan man inte se direkt på typskylten. Man måste antingen lusläsa motortillverkarens datablad eller prova och vara uppmärksam på hur motorn beter sig.
Den ström motorn drar beror mer på hur hårt belastad den är än på vilken spänning som tillförs (åtminstone om man bortser från den induktiva ström som motorn drar).
Om motorn vid ett visst tillfälle avger en viss bestämd effekt, så behövs det ju mindre ström för att åstadkomma den effekten ju högre spänningen är.
För att avgöra om motorn börjar bli övermagnetiserad på ett ohälsosamt sätt kan man köra den obelastad vid den frekvens man har tänkt sig, öka spänningen gradvis och mäta tomgångsströmmen eller ännu hellre den aktiva effektförbrukningen i tomgång. Vid den spänning då ström/effekt börjar stiga brantare än spänningsökningen, och motorn börjar låta mer och mer illa, kan man säga att gränsen går.
Ett annat sätt är att mäta strömmen i en fas med oscilloskop och se vid vilken spänning som strömmen slutar vara sinusformad och snarare får en "toppig" kurvform.