Alternatieven voor Java's ThreadLocal om objecten te hergebruiken

Door ACM op dinsdag 17 november 2015 19:25 - Reacties (10)
Categorie: Development, Views: 2.746

Soms zijn objecten relatief 'duur' om te maken, in vergelijking tot hun runtime-performance. Bekende voorbeelden in Java zijn NumberFormat en DateFormat. Ze zijn zo duur om te maken omdat ze onder andere eerst de 'huidige' Locale opzoeken en zich vervolgens zo configurere dat ze correcte formats opleveren voor die taal. Als dat eenmaal gebeurd is, is de aanroep van format() vrij snel gebeurd.
In Tweakers gebruiken we de NumberFormat erg veel in onze "Java-engine".
Objecten hergebruiken
Bij dat soort objcten zou je liever niet voor elke aanroep van format() eerst een nieuw object maken. Idealiter zou je één keer een NumberFormat-object maken en die steeds hergebruiken. Dat is vooral effectief als je veel cijfers in mooie leesbare formatting wilt genereren.
In Java is het dan ook een heel gebruikelijke performancetip om NumberFormat en dergelijke te hergebruiken. Als je maar één thread gebruikt is dat ook een heel makkelijk advies om op te volgen; je kan dan domweg je formatter in een class-property bewaren of eventueel zelfs een static object ervoor aanmaken.

En dat bewaren van een object helpt ook echt, in een eenvoudige JMH-benchmark bleek dat steeds een nieuw NumberFormat-object aanmaken en daarna één cijfer formatten op zo'n 1,8 miljoen formats per seconde uitkwam. Dat klinkt heel veel, maar als je dat vergelijkt met een hergebruikt object dan valt het toch tegen. Met één object aanmaken in totaal en steeds daarmee formatten kwam de test namelijk uit op ruim 39 miljoen formats per seconde uit, ruim twintig keer zoveel.

Overigens is het hergebruiken van objecten lang niet altijd de moeite waard. De JVM kent aardig wat optimalisaties om kleine, kortlevende objecten zeer snel aan te maken en weer te verwijderen. Doe het dus alleen als je denkt dat het echt wat toevoegt.
Hergebruik bij meerdere threads
Gebruik je echter meerdere threads, dan wordt het een stuk lastiger. Als de interne state van een object verandert, dan is het object in principe niet thread safe. Als je ze dan toch in meerdere threads tegelijk gebruikt, dan levert dat onvoorspelbaar gedrag op. Dit geldt onder andere voor NumberFormat en DateFormat, maar er zijn natuurlijk veel meer objecten waar dat relevant voor is. Het idee van een object-property of een static object werkt hier daarom niet zomaar, dan kan je niet garanderen dat dat object slechts door één thread (tegelijk) gebruikt wordt.

Om objecten toch thread safe te kunnen hergebruiken is er in Java een standaardtechniek ontwikkeld. Dat is de ThreadLocal. Die zorgt ervoor dat er voor iedere thread een uniek object wordt gemaakt en dat dat object vervolgens binnen die thread steeds hergebruikt wordt. Dit heeft wat overhead ten opzichte van direct hergebruiken, maar in de praktijk is het bijna even snel. Het kwam in diezelfde benchmark uit op bijna 33 miljoen formats per seconde met één thread en met vier en acht threads (op een vier-core machine zonder hyperthreading) op ruim 130 miljoen formats per seconde.
Nadeel van ThreadLocal in webapplicaties
Helaas heeft het gebruik van ThreadLocal voor webapplicaties een groot nadeel: het is een gebruikelijke bron van geheugenlekken. Dat is iets dat vrij specifiek voor webapplicaties geldt en niet voor reguliere applicaties, je hoeft je dus niet direct zorgen te gaan maken.
De reden dat het die geheugenlekken veroorzaakt hangt samen met de manier waarop de meeste application servers, waaronder Tomcat, applicaties en classes inladen. Dat doen ze met een losse ClassLoader.
Het gaat wat te ver om dat hier helemaal uit te leggen, maar het komt er op neer dat Threads gedeeld worden door meerdere webapplicaties en dat de webapplicaties een eigen ClassLoader (en dus geheugen) voor de eigen klassedefinities hebben. Als je vervolgens een ThreadLocal gebruikt, wordt de klassedefinitie van de objecten daarin vastgehouden binnen die algemene Thread. En doordat die klasse-definitie wordt vastgehouden wordt effectief dat hele stuk geheugen (inclusief alle klassedefinities voor de webapplicatie) vastgehouden. En dat blijft dan dus ook in de heap aanwezig nadat je de applicatie hebt undeployed.

Dat geheugenlek met ThreadLocals is op zich goed te voorkomen, maar in het kort komt het advies daarbij er op neer op het direct weer verwijderen van het object nadat de request is afgelopen. Op die manier bespaar je dan uiteindelijk wel wát keren dat je dure objecten opnieuw worden aangemaakt, maar niet zoveel als idealiter mogelijk is. Belangrijker nog is dat het vereist dat de code die het einde van je request afhandelt ook nog even rekening houdt met allerlei zaken die elders (misschien wel in je template-engine) spelen.
Alternatieven voor ThreadLocal
In onze webapplicaties vond ik het niet erg mooi om allerlei 'kennis' van de interne processen nog in de afhandeling van het einde van requests te verwerken. Bovendien voelt het ook vreemd om de code zo aan te passen dat zo'n langlevend object uiteindelijk toch maar voor enkele tientallen of een paar honderd format's gebruikt wordt.
Object pool
Een veelgebruikte techniek om 'dure' objecten te bewaren en te kunnen hergebruiken is een Object pool. Daarbij maak je enkele instanties van je klasse aan en bewaar je die op een centrale plaats. Vervolgens kan er elke keer als er zo'n object nodig is eentje gereserveerd worden en kan het aan het einde van de werkzaamheden weer teruggegeven worden.
Deze aanpak is onder andere erg gebruikelijk voor verbindingen met databases en andere databronnen. Daar heet het dan vaak een Connection Pool. Doordat het geen relatie met de Threads heeft is er verder geen sprake van dat type geheugenlek.

Er zijn vele Object pools te vinden. Ik heb een aantal ervan in JMH-benchmarks omgezet. Dat ging om eenvoudige zelfgeschreven varianten met queues of om generieke Object-poolimplementaties. De queues waren allemaal gebaseerd op de standaardimplementaties van Java, zoals de ConcurrentLinkedQueue, de ArrayDeque in combinatie met synchronization of locks en de ArrayBlockingQueue. De pools bestonden uit een voorbeeld op de Semaphore, de Apache commons Pool, de Fast object pool en een idee voor een Lock free pool.

<iframe src="//charts.tweakzones.net/kpFFR/1/index.html" frameborder="0" allowtransparency="true" allowfullscreen="allowfullscreen" webkitallowfullscreen="webkitallowfullscreen" mozallowfullscreen="mozallowfullscreen" oallowfullscreen="oallowfullscreen" msallowfullscreen="msallowfullscreen" width="600" height="400"></iframe>

Op de Fast object pool na hadden alle implementaties als nadeel dat ze significant trager werden naarmate er twee of meer threads actief werden. En in vergelijking met de ThreadLocal was het sowieso dramatisch, de snelste implementatie bij één thread kwam nog op een redelijke 21 miljoen formats per seconde; maar bij vier threads was de snelste slechts 17 miljoen. Dat is vooral slecht vergeleken met de 130 miljoen die bij ThreadLocal mogelijk was. Het was zelfs vrij slecht in vergelijking met domweg steeds een nieuw NumberFormat-object aanmaken, die zat met vier threads op 6,4 miljoen formats per seconde.
Blijkbaar is het principe van Object pool toch niet zo geschikt voor dit soort objecten, waarbij het 'echte werk' (de format-aanroep) slechts heel kort duurt.
Objecten per Thread bewaren
Aangezien de Object pools nogal tegen vielen, ben ik een ander idee gaan uitwerken. Er lijkt niet echt een naam voor te bestaan, maar uiteindelijk heb ik een soortgelijke constructie als de ThreadLocal gemaakt. Het belangrijkste verschil is dat de objecten nu niet meer 'in' de Thread worden opgeslagen. Dat heeft als groot voordeel dat als de webapplicatie stopt, dat dan ook alle objecten vrij gemaakt kunnen worden en de geheugenlek niet meer voorkomt.

De objecten worden domweg in een Map<Long, T> opgeslagen, waarbij T het te bewaren object is en de Long de identifier van een Thread representeert. Uiteindelijk heb ik daar diverse implementaties voor gemaakt. Dat ging om ConcurrentHashMap, ConcurrentSkipListMap, Trove4J's TSynchronizedLongObjectMap, Google's Guava Cache, ConcurrentLinkedHashMap, Caffeine's Cache.

In de praktijk bleek met name de standaard ConcurrentHashMap van Java erg goed te presteren. In onderstaande grafiek is ter referentie ook weer het aanmaken van losse objecten per format meegenomen.

<iframe src="//charts.tweakzones.net/JyuPo/1/index.html" frameborder="0" allowtransparency="true" allowfullscreen="allowfullscreen" webkitallowfullscreen="webkitallowfullscreen" mozallowfullscreen="mozallowfullscreen" oallowfullscreen="oallowfullscreen" msallowfullscreen="msallowfullscreen" width="600" height="400"></iframe>
Zelf uitproberen?
Als je zelf wilt kijken hoe een en ander presteert, dan kan je op onze github-repository de code bekijken en clonen. Je kan uiteraard ook in je eigen clone benchmarks toevoegen als je een goed idee hebt, dat volgens jou (nog) beter presteert dan de ConcurrentHashMap of de ThreadPool.
Als je denkt dat (een deel van) de benchmarks verkeerd zijn geïmplementeerd, hoor ik dat natuurlijk ook graag.
Over de benchmarks
De benchmarks zijn gedraaid met Java's Microbenchmark Harness. De cijfers zijn verzameld op een Intel Core i5-4690 met vier cpu-cores en een kloksnelheid van 3,5GHz (met pieken door Turbo Boost naar ruim 3,8GHz). Dit systeem draait op Windows 10.

Optimizing applications and why sampling profilers for java fail en

By ACM on Thursday 11 November 2010 20:55 - Comments (15)
Category: Development, Views: 10.812

Today I found out why sampling profilers for Java applications don't necessarily yield correct results. As an introduction, I start with some general text about discovering performance issues for (web)applications :)

If you pay attention to the performance of your site, you can commonly find points in your code that can be optimized to reduce run time of your application. At Tweakers.net we keep an eye on the site's performance. We (try to) find and optimize slow pages and the overall (perceived) speed of the site. And as you probably know, we did that way before Google started to use page speed as a component of their ranking ;)

Like many players in this world, we also found parts of the code that couldn't easily be optimized much further in either the database, the php-code or the apache-webserver.
Depending on the situation we took different approaches to optimize that: We started using memcached to reduce the number of queries and processing involved with fetching common data. We introduced a message queue in our set-up, allowing asynchronous execution of certain parts of the code. We installed reverse caching proxies, completely eliminating most repeated php-processing involved with semi-dynamic images. And we started using our "pricewatch engine", a internal "service" written in Java to exploit its better performance, more advanced memory management and ability to keep lots of data efficiently in memory.

All those ideas came from some form of profiling. A lot of the optimizations involved reduce or replace queries to our mysql-databases. Choosing which to optimize is mostly a matter of digging through logs, common sense and earlier optimization experiences. That reasonably works well, but only gets you so far. The tools, specifically designed for this, I've used so far for identifying which queries require optimization didn't seem to help much. It is very common for us to see a query being fast in most cases, but with some parameters being relatively slow. Apart from that, we see occasional, but major, slowdowns in queries that are normally very fast. Both situations aren't handled too well by such generic tools.

For our php code it is the same story. Its mostly common sense and very raw profiling using timers. A profiler like xdebug simply introduces way to much overhead (i.e. the "observer effect") to be used in production. Some other tools have evolved nowadays, but they're normally quite costly and I'm not very convinced they help us much in identifying actual bottlenecks. That's mainly because of the simple notion that most of the php-time is spent waiting on resources. In the cases where php was actually a hot spot, it was normally relatively easy to find. The ones we didn't find are probably not too important, as we've no real complaints about our website's performance.

We've also rewritten parts of our code in Java. A Java server application normally has much better performance and the ability to cache large amounts of data with very low latency. I.e. serializing and unserializing data to and from memcached into php is very costly compared to what we do in Java. That is one of the reasons our category pages in the pricewatch are still much faster than before the switch, even though we added several new features and the amount of products and specifications has grown over time.
Finding hot spots in Java code is much harder than in php. Due to compilation and the required restarting of services the overhead of introducing a timer somewhere is very high compared to a properly set up php test site. And to make matters worse, by restarting and/or introducing timing code you may impact the performance of your code much more than with php or sql; the JVM's hot spot optimization in Java is not very easy to predict for normal developers.

Luckily, for Java there are a bunch of profilers available that can be connected to (live) programs to introduce light weight collection of timing data. There are basically two types; sampling profilers and instrumenting profilers. Sampling profilers simply wait a bit, take a snapshot of the call trees and do the same thing again untill stopped. Instrumenting profilers use Java's dynamic code abilities to alter methods of selected classes to add some tiny bit of data collection code at the start and end of a method body.
The instrumentation variant has a major drawback; it introduces a huge overhead that severly impacts the way the JVM will do its work. Basically you're simply profiling a different application. To prevent this overhead, most profilers allow you to select which classes and/or methods should get instrumentation code and which not. This has the advantage of having much less overhead, but may prevent you from detecting a actual hot spot.

The sampling profiler does not have this disadvantage. The only disadvantage most people are aware of is that it may not sample often enough to actually capture very short method calls. But given enough time and a sufficiently small sampling interval, basic statistics suggests that shouldn't be much of a problem. As I can simply re-play the access logs (40M entries currently readily available for me) from our Tomcat application servers, its easy to pound a test environment with hours worth of requests.
Still, the sampling profilers I used didn't necessarily produce hot spot lists I agreed with. And I didn't really understand why. After many thousands of requests to Tomcat, you'd expect it to be able to collect numerous samples and thus easily pinpoint actual hot spots. But it doesn't always work that way.

According to this study it has to do with the fact that profilers don't really sample at the given intervals and at the same time should more randomly distribute the intervals. The intervals are more of a guide for when to take a sample, the actual samples seem to be taken at the next "yield point" (i.e. a point in the executable code at which the JVM allows preemptive switching to another thread). Ironically, those yield points are optimized by the JVM for better performance, potentially keeping them out of the hot spots in your code... The randomization issue also has to do with the yield points. When you switch at an exact interval, you are in sync with any other regular interval in the JVM or OS including thread schedulers. And, annoyingly, even the sampling profilers introduce a bit of an observer effect to the application (they do have to collect the data and such), albeit a much smaller one than those for the instrumentation profilers.
Given all that, you can't really trust the current Java profilers (I know of) too well. This makes it actually quite hard to optimize details in your code as you may not really know which methods are really consuming your cpu time. The general parts of your code (higher up the call-tree) are probably identified mostly correctly, so you will still get a sense of where to look.

I don't really have a solution for any of these issues, but I'd appreciate anyone's opinion or hint for proper tooling on any of the platforms discussed here. For now, its mostly still common sense and a bit of an art to optimize a application ;)