Passive Bauelemente Magnetics für GaN und SiC

Kernmaterialien für hohe Schaltfrequenzen

Welche Kernmaterialien eignen sich für Schaltfrequenzen bis in den Megahertz-Bereich?

Oliver Opitz: Im Bereich 10 bis 20 Megahertz gibt es bereits passende Kernmaterialien im Leistungsbereich bis 500 Watt. Gerade wird jedoch exzessiv Zeit und Geld sowohl unsererseits als auch vonseiten der Kollegen investiert, um zu erforschen, was jenseits der genannten Schaltfrequenzen, also bei 40 oder 50 Megahertz, geeignet sei. Da Luftspulen aus meiner Sicht keine Option sind, arbeiten wir beispielsweise mit mehreren Universitäten und Kernherstellern zusammen, um den Kunden eine Lösung bieten zu können.

Dr. Jörn Schliewe: Mit dem N59 hat Epcos gerade erst einen neuen Ferrit für Schaltfrequenzen um die zwei Megahertz herausgebracht. Es ergänzt das N49, das für den Frequenzbereich von 500 Kilohertz bis ein Megahertz geeignet ist.

Generell beobachte ich verstärkte Aktivitäten im Bereich Eisenpulvermaterialien. Darauf wies Charles Sullivan von der Thayer School of Engineering in Dartmouth in seiner Keynote auf der diesjährigen CIPS hin. Das sehe ich eher relativ, weil man auf die Skaleneinteilung aufpassen muss. Er hob sehr auf den sogenannten Performancefaktor ab. Wenn dieser auf eine identische spezifische Leistung normiert wäre und man dann den Trend zwischen N49 und N59 weiterverfolgt, würde man meines Erachtens nach mit den Ferriten besser abschneiden als mit Eisenpulver. Nichtsdestotrotz sind Eisenpulverkerne aufgrund des verteilten Luftspalts eine interessante Option.

Philipp Stürmer: Es gibt sehr viele Möglichkeiten, Eisenpulverkerne anzupassen und auf verschiedene Bereiche hin zu optimieren. Alles ab 50 Megahertz ist noch Gegenstand der Forschung.

Oliver Opitz: Und leider müssen wir uns immer noch der Physik unterordnen: Erhöhen wir den Wert bei einer Materialeigenschaft, reduziert dies automatische einen anderen oder mehrere andere. Erhöhen wir die Permeabilität, geht beispielsweise die maximale Temperatur, bei der das Bauteil genutzt werden kann, nach unten; steigt die Frequenz, sinkt die Induktivität usw. Egal welches bestehende oder noch zu entwickelnde Kernmaterial Sie nehmen, der Anwender muss immer einen Kompromiss finden.

Dr. Jörn Schliewe: Wenn wir über diese hohen Frequenzen reden, trennen sich aus meiner Sicht ein bisschen die Richtungen. Möchte man auf hohe Effizienz optimieren, dann darf das Kernmaterial nicht so weit ausgesteuert werden. Die Sättigung ist dann nicht mehr die maßgebende Größe, sondern die aussteuerungsabhängigen Kernverluste. Möchte man jedoch in Richtung maximale Energiedichte optimieren, denn muss man das Kernmaterial anders auslegen.

In seinen Vorträgen veranschaulicht Professor Kolar von der ETH Zürich das immer sehr schön mit den Pareto-Fronten: Es gibt einen Lösungsraum, wo die maximale Effizienz und die maximale Energiedichte ein wenig gegenläufig sind. Und die Anwendungsvielfalt ist so groß, dass kein einzelnes Material allen Ansprüchen gerecht wird. Es ist für jeden Einsatzfall neu zu bewerten, welches Kernmaterial für diese Anwendung das optimale ist.

Philipp Stürmer: Es wird darauf hinauslaufen, kundenspezifische Kernmaterialien für einzelne Anwendungen anzubieten. Das Produktportfolio wird also breiter werden. Im Grunde muss der Kunde entscheiden, welche Kompromisse er bereit ist einzugehen.

Norbert Pieper: Das wirkliche Problem liegt aus meiner Sicht aber eher bei der Entwärmung. Wie kriege ich den Kern gekühlt? Oder wie kriege ich den Kern in die Hochtemperaturumgebung eines SiC- oder GaN-Schalters? Die Frage ist also: Kriege ich die Systeme tatsächlich so klein und kompakt, dass ich die versprochene Leistungsdichte erreiche? Nehmen wir beispielsweise eine leistungsfähige Grafikkarte für den PC. Dort liegen die Leistungen weit unter zweihundert Watt, und trotzdem muss man dort die Induktivitäten kühlen. Dieses Thema wird leider noch unzureichend diskutiert. Sehen Sie sich das Siegersystem von Googles »Little Box Challenge« an; dort wurde der Ferritkern aktiv gekühlt.

Grundwissen: Simulation induktiver Bauelemente

Früher war die Verlustabschätzung per Simulation oder Excel sehr schwierig und ungenau. Würth Elektronik eiSos hat sich da vor einiger Zeit mit dem Tool Red Expert positioniert. Doch wie gut stimmen die rechnergestützte Verlustabschätzung und Messungen überein?

Oliver Opitz: Ziemlich gut. Das liegt daran, dass wir bei Red Expert keine Formel zur Berechnung hinterlegt haben. Also weder eine Steinmetz-Formel noch die von Christopher Oliver von Micrometals, auch kein Dowell- oder Ridley-Modell. Stattdessen haben wir über die letzten fünf Jahre unsere Bauteile genommen, wie sie sind, und unter verschiedenen Bedingungen vermessen. Daraus haben wir für jedes Bauteil jeweils ein eigenes mathematisches Modell entwickelt, also nicht generell ein Modell für alle oder jeweils eines für jede Bauteilfamilie. Natürlich gibt es weiterhin ein gewisses Toleranzfeld von zehn bis 15 Prozent, aber nicht mehr bis zu 200 Prozent wie bei Steinmetz beispielsweise.

Philipp Stürmer: Unser Online-Tool bei Vishay ist vor allem für eine Erstabschätzung gedacht und basiert daher auf einer Mischung von Messwerten und Standardmodellen wie Steinmetz. Aufgrund der vielen verschiedenen Endapplikationen und Randbedingungen, welche die Verluste in einem induktiven Bauteil beeinflussen, kann ein Onlinewerkzeug nie alle Einflüsse berücksichtigen. Aus unserer Sicht ist es dem Anwender in diesem Stadium wichtig, einen fundierten Startpunkt zur Auswahl der richtigen Induktivität zu bekommen. Mit dieser Auswahl kann er dann an den Hersteller herantreten, um weitere Information sowie Bauteilemuster zu erhalten.

Dr. Jörn Schliewe: Online haben wir bei TDK ein sogenanntes Product Center, wo wir in erster Linie ein elektronisches Datenblatt bieten. Es finden sich auch Kleinsignal-Simulationsmodelle, also SPICE-Modelle, die eigentlich der Standard sind. Kleinsignalsimulationen haben natürlich ihre Grenzen; so gelten diese nur für einen Temperatur-Arbeitspunkt und nur im linearen Bereich der magnetischen Aussteuerung. Außerdem werden diese Ergebnisse bei höheren Arbeitsfrequenzen ungenauer, weil gerade die Kernverluste aussteuerungsabhängig sind. Auf Anfrage bieten wir unseren Kunden aber auch spezifischere Modelle an.

Herr Dr. Friedrichs, wie wichtig ist ein Tool wie die Simulation für Sie, da Sie ja auch viele Kundenprojekte betreuen?

Dr. Peter Friedrichs: Simulation gewinnt immer mehr an Bedeutung. In meinem Umfeld geht es oft um das Thema EMV. Üblicherweise geht man da nach dem Trial-and-Error-Verfahren vor. Man baut einen Prototyp auf, geht in die EMV-Kammer. Fällt man beim Test durch, doktert man herum und geht dann wieder in die EMV-Kammer. Dieses Spiel wiederholt sich dann ein paar Mal. Mithilfe von EMV-Simulationen versuchen wir heute, einiges schon vorab in den Griff zu bekommen. Daher bieten wir bei Infineon unseren Kunden EMV-Modelle für unsere Bauteile an, und da ist es natürlich wünschenswert, die passiven Bauelemente zu integrieren. Das kann dazu beitragen, Designzyklen gerade mit den Wide-Bandgap-Halbleitern, die so schnell schalten können, zu verkürzen.

Oliver Opitz: Das könnte auch eine Altersfrage sein. Ich selber gehöre noch zu der Generation, die gerne mal ins Labor geht und was nachmisst. Aber die Ingenieure, die jetzt fertig werden, sind gegenüber Software viel affiner – das meine ich keineswegs negativ. Die möchten halt mal schnell was am Rechner ausprobieren, ohne gleich Muster bestellen, darauf warten und dann einlöten zu müssen.

Norbert Pieper: Ein Problem der Simulation ist auch eine Frage der Erkenntnis. Denken Sie nur daran, wie schnell sich in den letzten Jahren neue Topologien wie aktive PFC, LLC oder Zero-Voltage-Switching etabliert haben. Die Erfahrungen mit solchen Schaltungen sind noch recht dünn gesät und damit auch die Bauteilmodelle für die Simulation. Und wenn jetzt noch die neuen Wide-Bandgap-Halbleiter mit ihren hohen Schaltfrequenzen und kurzen Ein- und Ausschaltzeiten hinzukommen, dann wird es immer problematischer.

Wir hatten das Beispiel mit einem Halbleiter, der in die Leiterplatte »embedded« wurde. Dann können Sie alle Simulationsmodelle getrost über Bord werfen. Dann kommt es darauf an, direkt mit dem Kunden eng zusammenarbeiten. Die langen Entwicklungszyklen, die vielen Prototypen und das viele Geld kann sich heute keiner mehr leisten. Und deshalb muss so viel wie möglich an neuen Konfigurationen und Modellen simuliert und getestet werden.

Dr. Jörn Schliewe: Hauptproblem der Simulation ist, dass man immer einen großen Satz an Unbekannten hat – hauptsächlich Materialeigenschaften und parasitäre Elemente bei Systemsimulationen. Um diese erst einmal zu erkennen und zu charakterisieren, ist extrem großes Know-how im Bereich Messtechnik nötig.

Wir als Simulationsgruppe beschäftigen uns daher nicht einfach mit dem Simulieren an sich, sondern damit, wie sich bestimmte physikalische Effekte messen lassen. Außerdem stecken wir viel Zeit in theoretische und analytische Überlegungen, denn nur wenn Simulation und Theorie übereinstimmen und in die gleiche Richtung gehen, kann man sicher sein, dass das Ergebnis auch stimmt.