Lines Matching defs:zSig1
638 and extended significand formed by the concatenation of `zSig0' and `zSig1',
662 int8 roundingPrecision, flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1
683 zSig0 |= ( zSig1 != 0 );
739 increment = ( (sbits64) zSig1 < 0 );
746 increment = ( roundingMode == float_round_down ) && zSig1;
749 increment = ( roundingMode == float_round_up ) && zSig1;
777 shift64ExtraRightJamming( zSig0, zSig1, 1 - zExp, &zSig0, &zSig1 );
779 if ( isTiny && zSig1 ) float_raise( float_flag_underflow );
780 if ( zSig1 ) set_float_exception_inexact_flag();
782 increment = ( (sbits64) zSig1 < 0 );
786 increment = ( roundingMode == float_round_down ) && zSig1;
789 increment = ( roundingMode == float_round_up ) && zSig1;
795 ~ ( ( (bits64) ( zSig1<<1 ) == 0 ) & roundNearestEven );
801 if ( zSig1 ) set_float_exception_inexact_flag();
809 zSig0 &= ~ ( ( (bits64) ( zSig1<<1 ) == 0 ) & roundNearestEven );
822 `zExp', and significand formed by the concatenation of `zSig0' and `zSig1',
831 int8 roundingPrecision, flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1
837 zSig0 = zSig1;
838 zSig1 = 0;
842 shortShift128Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
845 roundAndPackFloatx80( roundingPrecision, zSign, zExp, zSig0, zSig1 );
949 by the concatenation of `zSig0' and `zSig1' into a quadruple-precision
956 whenever `zSig0' and `zSig1' concatenated form a complete, normalized
961 packFloat128( flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1 )
965 z.low = zSig1;
974 and extended significand formed by the concatenation of `zSig0', `zSig1',
995 flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1, bits64 zSig2 )
1023 zSig1
1050 zSig1,
1055 zSig0, zSig1, zSig2, - zExp, &zSig0, &zSig1, &zSig2 );
1073 add128( zSig0, zSig1, 0, 1, &zSig0, &zSig1 );
1074 zSig1 &= ~ ( ( zSig2 + zSig2 == 0 ) & roundNearestEven );
1077 if ( ( zSig0 | zSig1 ) == 0 ) zExp = 0;
1079 return packFloat128( zSign, zExp, zSig0, zSig1 );
1086 and significand formed by the concatenation of `zSig0' and `zSig1', and
1096 flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1 )
1102 zSig0 = zSig1;
1103 zSig1 = 0;
1109 shortShift128Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
1113 zSig0, zSig1, 0, - shiftCount, &zSig0, &zSig1, &zSig2 );
1116 return roundAndPackFloat128( zSign, zExp, zSig0, zSig1, zSig2 );
1357 bits64 zSig0, zSig1;
1365 zSig1 = 0;
1370 zSig1 = absA;
1373 shortShift128Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
1374 return packFloat128( zSign, zExp, zSig0, zSig1 );
2584 bits64 aSig, zSig0, zSig1;
2598 shift128Right( aSig, 0, 4, &zSig0, &zSig1 );
2599 return packFloat128( aSign, aExp + 0x3C00, zSig0, zSig1 );
2873 bits64 aSig, bSig, zSig0, zSig1;
2911 mul64To128( aSig, bSig, &zSig0, &zSig1 );
2912 zSig0 |= ( zSig1 != 0 );
3563 bits64 aSig, zSig0, zSig1;
3571 shift128Right( aSig<<1, 0, 16, &zSig0, &zSig1 );
3572 return packFloat128( aSign, aExp, zSig0, zSig1 );
3667 bits64 aSig, bSig, zSig0, zSig1;
3681 shift64ExtraRightJamming( bSig, 0, expDiff, &bSig, &zSig1 );
3690 shift64ExtraRightJamming( aSig, 0, - expDiff, &aSig, &zSig1 );
3700 zSig1 = 0;
3712 shift64ExtraRightJamming( zSig0, zSig1, 1, &zSig0, &zSig1 );
3718 floatx80_rounding_precision, zSign, zExp, zSig0, zSig1 );
3734 bits64 aSig, bSig, zSig0, zSig1;
3758 zSig1 = 0;
3768 shift128RightJamming( aSig, 0, - expDiff, &aSig, &zSig1 );
3770 sub128( bSig, 0, aSig, zSig1, &zSig0, &zSig1 );
3780 shift128RightJamming( bSig, 0, expDiff, &bSig, &zSig1 );
3782 sub128( aSig, 0, bSig, zSig1, &zSig0, &zSig1 );
3787 floatx80_rounding_precision, zSign, zExp, zSig0, zSig1 );
3846 bits64 aSig, bSig, zSig0, zSig1;
3884 mul64To128( aSig, bSig, &zSig0, &zSig1 );
3886 shortShift128Left( zSig0, zSig1, 1, &zSig0, &zSig1 );
3891 floatx80_rounding_precision, zSign, zExp, zSig0, zSig1 );
3906 bits64 aSig, bSig, zSig0, zSig1;
3960 zSig1 = estimateDiv128To64( rem1, 0, bSig );
3961 if ( (bits64) ( zSig1<<1 ) <= 8 ) {
3962 mul64To128( bSig, zSig1, &term1, &term2 );
3965 --zSig1;
3968 zSig1 |= ( ( rem1 | rem2 ) != 0 );
3972 floatx80_rounding_precision, zSign, zExp, zSig0, zSig1 );
4085 bits64 aSig0, aSig1, zSig0, zSig1, doubleZSig0;
4121 zSig1 = estimateDiv128To64( rem1, 0, doubleZSig0 );
4122 if ( ( zSig1 & LIT64( 0x3FFFFFFFFFFFFFFF ) ) <= 5 ) {
4123 if ( zSig1 == 0 ) zSig1 = 1;
4124 mul64To128( doubleZSig0, zSig1, &term1, &term2 );
4126 mul64To128( zSig1, zSig1, &term2, &term3 );
4129 --zSig1;
4130 shortShift128Left( 0, zSig1, 1, &term2, &term3 );
4135 zSig1 |= ( ( rem1 | rem2 | rem3 ) != 0 );
4137 shortShift128Left( 0, zSig1, 1, &zSig0, &zSig1 );
4141 floatx80_rounding_precision, 0, zExp, zSig0, zSig1 );
4816 bits64 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
4863 add128( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
4864 if ( aExp == 0 ) return packFloat128( zSign, 0, zSig0, zSig1 );
4871 add128( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
4877 zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
4879 return roundAndPackFloat128( zSign, zExp, zSig0, zSig1, zSig2 );
4895 bits64 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1;
4942 sub128( bSig0, bSig1, aSig0, aSig1, &zSig0, &zSig1 );
4960 sub128( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
4964 return normalizeRoundAndPackFloat128( zSign, zExp - 14, zSig0, zSig1 );
5023 bits64 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2, zSig3;
5065 mul128To256( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1, &zSig2, &zSig3 );
5066 add128( zSig0, zSig1, aSig0, aSig1, &zSig0, &zSig1 );
5070 zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
5073 return roundAndPackFloat128( zSign, zExp, zSig0, zSig1, zSig2 );
5088 bits64 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
5147 zSig1 = estimateDiv128To64( rem1, rem2, bSig0 );
5148 if ( ( zSig1 & 0x3FFF ) <= 4 ) {
5149 mul128By64To192( bSig0, bSig1, zSig1, &term1, &term2, &term3 );
5152 --zSig1;
5155 zSig1 |= ( ( rem1 | rem2 | rem3 ) != 0 );
5157 shift128ExtraRightJamming( zSig0, zSig1, 0, 15, &zSig0, &zSig1, &zSig2 );
5158 return roundAndPackFloat128( zSign, zExp, zSig0, zSig1, zSig2 );
5283 bits64 aSig0, aSig1, zSig0, zSig1, zSig2, doubleZSig0;
5321 zSig1 = estimateDiv128To64( rem1, 0, doubleZSig0 );
5322 if ( ( zSig1 & 0x1FFF ) <= 5 ) {
5323 if ( zSig1 == 0 ) zSig1 = 1;
5324 mul64To128( doubleZSig0, zSig1, &term1, &term2 );
5326 mul64To128( zSig1, zSig1, &term2, &term3 );
5329 --zSig1;
5330 shortShift128Left( 0, zSig1, 1, &term2, &term3 );
5335 zSig1 |= ( ( rem1 | rem2 | rem3 ) != 0 );
5337 shift128ExtraRightJamming( zSig0, zSig1, 0, 14, &zSig0, &zSig1, &zSig2 );
5338 return roundAndPackFloat128( 0, zExp, zSig0, zSig1, zSig2 );