¡ChatGPT tiene precisiones perezosas y sucias cuando se trata de matemáticas!

¡¡¡Un día en la vida de un programador perezoso para pruebas perturbativas!!! ¡Convoquemos a la calculadora glorificada, ala, ChatGPT (o Wolfram Alpha)! Solía ​​hacer trampa a veces con Wolfram en los días de descanso. Pero ahora ChatGPT se hace cargo de las pruebas más sencillas.

Le pedí a ChatGPT que me diera dos vectores ortogonales de dimensión 20. Obtuve los vectores.

Estos son los vectores que obtuve de ChatGPT:

v1 = [0.88201679, -0.05758137, -0.42121971, -0.18530611, -0.09016195, -0.19128234, -0.0379655 , 0.13143978, 0.21425105, 0.2246096 , -0.12504853, -0.12579444, -0.06630113, -0.13681961, -0.05066335, 0.07013917, 0.05883755, -0.01472815, -0.14948907, -0.03506877]

También te puede interesarLLM y la pila tecnológica emergente de ML

v2 = [-0.08950484, 0.28038171, -0.08425878, -0.00887197, 0.02787388, -0.08632868, 0.26158391, 0.0090745 , -0.05498919, -0.10617688, 0.12980132, -0.19480344, 0.10695802, -0.05316702, -0.2302231 , 0.00729124, -0.05123817, 0.0780862 , 0.0232098 , 0.02447112]

y el producto interior de estos vectores es -0.07618303227161559

PRECAUCIÓN: El ÚNICO problema es que estos dos vectores dan como resultado -0.07 como producto punto y, por lo tanto, no son lo suficientemente buenos para lo que estoy trabajando como precisión de ortogonalidad. -0.07 está técnicamente más cerca de -0.1, ¡que está muy, muy, muy lejos de cero!

Así que volverse perezoso con ChatGPT es un poco peligroso para la precisión o la exactitud.

También te puede interesar📈 Suavice sus datos de series temporales con medias móviles

Si tuviera que hacer esto yo mismo, habría hecho:
# Generar un vector aleatorio de dimensión n
v1 = np.aleatorio.rand(n)
# Generar un vector aleatorio de dimensión n que sea ortogonal a v1
v2 = np.aleatorio.rand(n)
v2 -= v1 * np.punto(v2, v1) / np.punto(v1, v1)
v2 /= np.linalg.norm(v2)

Con mi código anterior, obtienes:
v1= [0.23246931 0.69022428 0.37562544 0.66935077 0.1359036 0.96530615 0.18023099 0.46983999 0.12821443 0.80855697 0.38360875 0.85697724 0.53610547 0.02802696 0.45083544 0.71838969 0.02250539 0.6686959 0.9551404 0.74936729]

v2 = [-0.02449058 0.2893198 0.21850898 -0.0676647 0.28934451 0.06491934 0.0541631 0.05861308 0.46143552 -0.05489555 0.32269301 -0.2848697 0.26762545 0.29952854 -0.196236 0.01960195 0.23055467 -0.28461804 -0.18155913 0.02208541]

cuyo producto interior es 2.220446049250313e-16.

También te puede interesarProcesamiento de lenguaje natural para correos electrónicos

La forma de interpretar eso es un punto cero seguido de 16 ceros y 2. Esto está muy cerca de cero. Esto es más útil que lo que me dio ChatGPT.

Si tuviera que generar algo mucho más preciso y extenderlo a una matriz ortogonal, primero tengo que entender los siguientes pasos:

Tus habilidades de programación se deteriorarán en un año si confías en ChatGPT. Uno olvidará la intuición detrás de la ortogonalidad saltándose los cinco pasos anteriores. ¡Uno probablemente ni siquiera codificará!

¡Suspiro! He decidido mantenerme alejado de ChatGPT por estos motivos.

También te puede interesarAhora puede usar la búsqueda basada en Bing AI en Android e iOS

¡Lo que comenzó como un día de descanso se convirtió en otro blog de ChatGPT!

[post_relacionado id=»1776″]

Scroll al inicio