bug: power layer produces nan value on negative value

Hi,

CUDA:10.0
CUDNN: 7.3
TensorRT: 5.0

I found out that power layer does not work.

for example, given power=2, it should produce the square value, but it does not.

Here are the related layers

layer {
  name: "476"
  type: "Scale"
  bottom: "480"
  top: "480"
  scale_param {
    bias_term: true
  }
}

# normalize
# FIXME: tensorRT bug here
layer {
  name: "emb_pow"
  type: "Power"
  bottom: "480"
  top: "481"
  power_param {
    power: 2
  }
}

the dim of blob “480” is (N,512,1,1), its outputs is

1.7544
-0.631958
2.12191
0.702359
-1.98377
-1.31894
-1.88664
0.526909
0.322086
0.261328
-1.16332
1.81034
-0.449286
-0.617355
-0.645294
0.971666
-0.699103
0.142118
-0.928923
1.62679
2.59597
0.270936
1.17658
-0.0767202
0.631306
0.229432
-0.266238
-0.864528
0.0403971
-0.507038
0.831006
0.141591
0.782202
2.57367
-0.64755
-1.00934
2.3426
1.09279
1.94662
0.149388
2.14546
0.458837
1.04438
0.866937
0.0461026
3.43145
1.74849
-0.683912
0.852832
0.112063
0.650588
0.02055
1.59768
-1.19338
-0.264441
-0.317671
-0.775151
-1.35635
1.02321
-0.97943
-0.487863
0.541301
0.378148
-0.732197
-1.07131
-0.919947
0.3139
-0.615979
-0.0226958
-0.165663
-0.550131
-0.894331
-0.368785
0.892728
-0.602159
-1.28598
2.9217
0.86975
-0.773089
0.252413
1.15485
0.169371
1.30574
0.203705
4.44673
-0.18999
-1.32601
0.292111
1.3395
-1.28365
-0.887966
-0.795796
-1.55638
1.27992
0.435463
-0.749836
-0.850917
-1.00802
1.58651
1.56935
-1.66092
-0.614628
-0.845595
-0.88862
1.07496
0.177928
0.779365
-0.426057
-1.17949
-0.669124
2.03641
-0.698676
0.00476841
0.485414
-0.177381
-0.820503
0.1991
0.964206
-1.21077
0.734919
1.52873
-1.95953
-0.052648
-0.712071
-0.145547
-0.0427761
0.488983
1.03966
-1.06809
0.289162
1.24077
-0.771759
-1.7421
0.120302
1.99397
1.04344
0.561775
-0.897827
-0.881908
0.900476
1.30596
-0.679767
-0.675952
1.26031
0.819521
0.166087
2.6474
-1.0095
1.90852
0.32361
-1.42744
1.08934
-0.518686
-0.924375
-1.67378
1.61094
-0.908864
0.652901
-0.050887
-0.138039
0.861964
0.345681
0.0634159
1.18087
0.493932
-0.281783
-0.0253212
0.661724
1.77074
3.27287
-0.348703
-1.40686
-0.173519
-0.208919
-0.316272
-0.61887
2.95965
2.30253
-0.671747
1.8342
-0.962188
0.834965
-0.892835
0.020449
-0.644144
-1.5118
3.14392
-1.86875
-0.000733548
0.0534705
-0.342619
0.392979
1.46765
0.00104741
1.38472
0.341987
0.841002
0.520856
-1.01904
3.39215
-0.515265
0.364662
-0.151319
-0.738473
1.23202
-0.374349
0.626372
0.0300296
-1.05246
-1.24759
-0.897323
-0.811466
-1.43268
0.128565
-0.924952
-0.23224
1.12157
0.85184
0.0955379
-0.900898
-0.203787
0.24996
1.30554
-0.675573
-0.866792
1.07851
0.70532
-1.06086
0.244306
-1.09315
0.272862
0.851793
-1.47022
0.029781
0.397012
1.16103
0.1956
0.475355
-0.901438
-0.523421
-0.520634
-0.504781
0.724575
-0.843806
0.625314
-1.24892
2.65352
3.71056
2.35605
0.571446
-1.43482
-0.0749108
-0.576068
1.8089
-0.808203
-0.989635
-0.483643
-0.0384726
1.45651
-1.25571
-0.647759
0.58865
5.01513
-0.315791
-1.3252
-0.465657
0.581687
1.07231
-0.374542
0.832299
-0.681024
-0.698891
-0.239627
1.11453
0.270421
0.485909
-0.57522
-0.770875
0.558694
0.0719167
-1.39875
-1.1413
1.74762
-0.664336
-0.70428
-0.23873
-0.574836
0.588472
0.32384
-2.16659
-0.469966
-0.702043
-0.571409
0.88358
1.57753
0.981551
-0.824062
0.718901
0.0127045
0.627062
1.54035
-0.16591
-0.230329
0.721347
-1.05619
-0.592516
-0.913667
-0.251876
-0.677635
-0.928796
0.879709
-0.132686
-1.29119
-0.910016
-0.856856
1.53408
0.330915
1.91805
-1.25546
0.0220258
-1.44407
0.648107
-0.440777
-0.689395
0.127681
-0.407242
-1.0832
-1.21311
-1.06845
-0.92928
1.00445
-0.885847
-0.846108
0.507206
-0.0610397
-1.00683
0.552028
-0.261241
0.133107
0.329513
-0.643361
0.431632
-0.285704
-3.46287
0.925576
1.58653
0.956736
1.87899
-1.11565
-1.62448
0.267722
0.277653
-0.465599
-0.852438
-0.314746
-0.268268
0.732956
0.483979
-0.291452
0.267799
0.17428
0.648816
-0.939137
-0.359091
1.06956
0.206256
-0.0409934
-0.927153
0.671258
1.52511
1.22317
-0.907051
-0.655938
-0.108769
0.534922
2.2241
-0.157228
0.603025
1.93207
-0.102807
0.0182673
0.575603
-0.868647
-0.152043
0.131879
-0.266775
0.0235263
0.717204
0.230717
-1.25127
-0.656256
-0.782801
1.76318
1.23525
0.942307
0.676996
-0.764526
1.34076
-0.650643
0.0417232
1.65309
0.653463
0.0110472
0.296529
0.326369
-0.613338
-0.34905
-0.465552
0.840438
-0.800661
1.29619
0.0681522
-0.565519
0.574658
-0.757471
-1.41489
0.00407652
0.246491
0.560961
-0.105643
2.38304
-0.118095
0.62685
-1.19391
-0.13674
0.716325
1.65989
-0.447502
-1.73157
0.134777
0.348809
-0.686526
-1.15477
-0.179861
-0.845768
0.575225
0.161935
0.231112
0.268971
0.179739
0.137687
-0.106307
0.126961
-1.27031
0.563783
3.2138
-0.509027
-1.12378
4.55851
-1.00431
0.952491
-0.0342273
-0.387939
2.37306
-1.20397
0.310715
-1.53635
-0.738615
-0.567594
1.01639
0.527005
-1.12691
-0.483541
-0.337151
-0.364209
0.410773
2.40938
-0.677385
-0.856331
-0.163217
-1.74426
0.436391
2.67833
-0.705449
-0.5642
0.312747
-1.32892
-1.06008
0.561412
-0.519185
-0.355181
-0.465679
4.7096
0.612696
0.0866231
-0.556804
2.60504
-1.35648
0.703286
1.03963
-0.548031
1.47255
0.330879
-0.276331
0.572068
0.314547
0.585246
2.68774
0.920807
-0.702475
-0.345858
0.909419
2.24962
0.949501
-0.308629
0.821503
-0.335724
-0.691654
-0.487488
0.625881
-0.983138
0.685626

after the power layer, it seems that the negative values are squared to nan

3.07793
nan
4.50252
0.493308
nan
nan
nan
0.277633
0.103739
0.0682925
nan
3.27735
nan
nan
nan
0.944135
nan
0.0201974
nan
2.64643
6.73909
0.0734066
1.38435
nan
0.398547
0.0526392
nan
nan
0.00163192
nan
0.690571
0.020048
0.61184
6.62378
nan
nan
5.48779
1.19419
3.78933
0.0223169
4.603
0.210531
1.09073
0.75158
0.00212546
11.7749
3.05721
nan
0.727323
0.0125582
0.423265
0.000422302
2.5526
nan
nan
nan
nan
nan
1.04697
nan
nan
0.293007
0.142996
nan
nan
nan
0.0985332
nan
nan
nan
nan
nan
nan
0.796963
nan
nan
8.53634
0.756466
nan
0.0637124
1.33368
0.0286865
1.70495
0.041496
19.7734
nan
nan
0.0853288
1.79426
nan
nan
nan
nan
1.6382
0.189628
nan
nan
nan
2.51702
2.46286
nan
nan
nan
nan
1.15555
0.0316585
0.60741
nan
nan
nan
4.14697
nan
2.27423e-05
0.235626
nan
nan
0.0396409
0.929694
nan
0.540105
2.33701
nan
nan
nan
nan
nan
0.239104
1.0809
nan
0.0836145
1.5395
nan
nan
0.0144726
3.97592
1.08876
0.315592
nan
nan
0.810857
1.70554
nan
nan
1.58838
0.671614
0.0275847
7.00872
nan
3.64244
0.104723
nan
1.18665
nan
nan
nan
2.59513
nan
0.42628
nan
nan
0.742981
0.119495
0.00402155
1.39445
0.243968
nan
nan
0.437878
3.13551
10.7117
nan
nan
nan
nan
nan
nan
8.75952
5.30166
nan
3.36427
nan
0.697167
nan
0.000418178
nan
nan
9.88424
nan
nan
0.0028591
nan
0.154433
2.15399
1.09584e-06
1.91745
0.116955
0.707285
0.271291
nan
11.5067
nan
0.132978
nan
nan
1.51787
nan
0.392342
0.00090181
nan
nan
nan
nan
nan
0.0165291
nan
nan
1.25791
0.725631
0.00912751
nan
nan
0.06248
1.70443
nan
nan
1.16317
0.497476
nan
0.0596855
nan
0.0744536
0.725552
nan
0.000886942
0.157618
1.34799
0.0382595
0.225963
nan
nan
nan
nan
0.52501
nan
0.391018
nan
7.04119
13.7682
5.55099
0.326551
nan
nan
nan
3.27211
nan
nan
nan
nan
2.12141
nan
nan
0.346508
25.1515
nan
nan
nan
0.338359
1.14985
nan
0.692721
nan
nan
nan
1.24217
0.0731275
0.236108
nan
nan
0.312139
0.00517204
nan
nan
3.05417
nan
nan
nan
nan
0.346299
0.104872
nan
nan
nan
nan
0.780714
2.48861
0.963443
nan
0.516818
0.000161397
0.393206
2.37267
nan
nan
0.520342
nan
nan
nan
nan
nan
nan
0.773888
nan
nan
nan
nan
2.3534
0.109504
3.67891
nan
0.000485144
nan
0.420043
nan
nan
0.0163024
nan
nan
nan
nan
nan
1.00892
nan
nan
0.257258
nan
nan
0.304735
nan
0.0177174
0.108579
nan
0.186306
nan
nan
0.85669
2.51708
0.915344
3.53062
nan
nan
0.0716753
0.0770911
nan
nan
nan
nan
0.537224
0.234236
nan
0.0717166
0.0303735
0.420962
nan
nan
1.14396
0.0425414
nan
nan
0.450588
2.32597
1.49614
nan
nan
nan
0.286142
4.94662
nan
0.363638
3.73291
nan
0.000333712
0.331318
nan
nan
0.0173922
nan
0.000553494
0.514381
0.0532307
nan
nan
nan
3.10882
1.52584
0.887942
0.458324
nan
1.79764
nan
0.00174084
2.7327
0.427013
0.000122037
0.0879292
0.106517
nan
nan
nan
0.706338
nan
1.68011
0.00464472
nan
0.330232
nan
nan
1.66193e-05
0.0607578
0.314678
nan
5.6789
nan
0.392942
nan
nan
0.513121
2.75523
nan
nan
0.0181648
0.121668
nan
nan
nan
nan
0.330884
0.026223
0.0534128
0.0723454
0.0323061
0.0189576
nan
0.0161192
nan
0.317852
10.3285
nan
nan
20.78
nan
0.907239
nan
nan
5.63139
nan
0.0965436
nan
nan
nan
1.03306
0.277735
nan
nan
nan
nan
0.168734
5.8051
nan
nan
nan
nan
0.190437
7.17346
nan
nan
0.0978105
nan
nan
0.315184
nan
nan
nan
22.1804
0.375396
0.00750353
nan
6.78625
nan
0.494611
1.08082
nan
2.16839
0.109481
nan
0.327262
0.09894
0.342513
7.22393
0.847885
nan
nan
0.827043
5.0608
0.901552
nan
0.674866
nan
nan
nan
0.391726
nan
0.470084

it’s definitely a bug.

any idea?

Hello,

we are reviewing the issue and will keep you updated.

Hello,

Questions for you:

What hardware/GPU are you running on?
Precision your network is running on?

our engineers are not able to repro on TitanV.

thanks,
NVES

Hi,

My hardware is GTX-1080

Precision is FP32