The way that I remember the Russian balanced trinary computing, the
premise was that 3 came closer to "e" than did 2, so trinary should in
some sense be closer to optimal than binary. I don't know the Russian
for "flip-flap-flop" as better than flip-flop, in circuitry.  The
tale was that the advantage was wasted in a clumsy representation of
decimal in the new system. Of course, that was a tale during the Cold
War (say when I was at Caltech 1968-1973), possibly promulgated as a
joke by John Todd, Oliver Selfridge, or another fiend of Alan
Turing's,  and could easily have been disparagement, or
disinformation.<br><br><div><span class="gmail_quote">On 12/19/06, <b class="gmail_sendername">Edwin Clark</b> <<a href="mailto:eclark@math.usf.edu">eclark@math.usf.edu</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>There is also something similiar called the non-adjacent form<br>(NAF) of an integer--which is a representation of an integer<br>to base 2, with "bits" 1,-1 and 0. Such a representation<br>is unique if no two adjacent "bits" are nonzero. Years ago Joe
<br>Liang and I wrote some papers on error-correcting codes<br>for arithmetic in which this idea appears. The number<br>of non-zero "bits" in a NAF is an analogue of the Hamming<br>weight of a binary number.  There are also generalizations
<br>to bases r > 2, but not quite as simple. Some of our work<br>was covered in van Lint's hardback Springer yellow book on<br>coding theory.<br><br>So long ago I can barely recall what it was about.<br><br>A google search on "non-adjacent form" will
<br>no doubt lead to better references.<br><br>We also got a similar form for some bases for the Gaussian<br>integers and other Euclidean rings. But I doubt if any of<br>that is related to the current discussion.<br><br><br>
<br>--Edwin<br><br></blockquote></div><br>